![Rishi Jaitly، مشاور OpenAI و رئیس سابق هند در توییتر (اکنون X). فایل Rishi Jaitly، مشاور OpenAI و رئیس سابق هند در توییتر (اکنون X). فایل](https://colbe.ir/wp-content/uploads/2024/01/شرکتهای-هوش-مصنوعی-باید-شروع-به-گزارش-تستهای-ایمنی-خود.png)
Rishi Jaitly، مشاور OpenAI و رئیس سابق هند در توییتر (اکنون X). فایل | اعتبار عکس: هندو
نمایندگان OpenAI، شرکت هوش مصنوعی که ChatGPT را توسعه داده است، در ماه فوریه با مقامات کمیسیون انتخابات هند دیدار کردند تا اطمینان حاصل کنند که از پلتفرم محبوب آن در انتخابات آتی لوک سبها سوء استفاده نمی شود و راه هایی برای همکاری با ECI بیابند.
ECI این نشست را در پاسخی به حق اطلاعات تایید کرد هندو. Rishi Jaitly، مشاور OpenAI و رئیس سابق هند در توییتر (اکنون X)، برای درخواست این جلسه با ECI تماس گرفته بود.
درخواست ایمیلی او تا حدودی روشن می کند که مدیران ممکن است در جلسه در مورد آن چه صحبت کرده باشند. ناگفته نماند که ما [OpenAI] میخواهیم اطمینان حاصل کنیم که از پلتفرمهای ما در انتخابات عمومی آتی سوء استفاده نمیشود و در این جلسه، مایلیم در مورد نگرانیهای ECI و همچنین فرصتهای همکاری برای اطمینان از اینکه رایدهندگان بیشتری قادر به اعمال حق امتیاز خود هستند، بحث کنیم. نوشت.
![](https://colbe.ir/wp-content/uploads/2024/03/1710313002_120_در-میان-ترس-از-سوء-استفاده-از-هوش-مصنوعی-در.jpg)
هند و داستان هوش مصنوعی
آقای جیتلی در ایمیل خود اضافه کرد که به عنوان مشاور ارشد OpenAI، تمرکز او بر این است که “اطمینان حاصل شود که ماموریت هوش مصنوعی این شرکت داستان هند را پیش می برد و هند به یک رهبر جهانی در داستان هوش مصنوعی تبدیل می شود”.
جیسون کوون، مدیر ارشد استراتژی OpenAI، جیمز هیرستون، رئیس سیاست عمومی جهانی آن، و بکی ویت، رئیس انتخابات جهانی آن، از طرف شرکت در جلسه شرکت کردند. ECI از افشای اینکه کدام مقامات نماینده کمیسیون در جلسه بودند خودداری کرد. انوج چندک، مدیر مشترک ECI که آقای جیتلی درخواست ملاقات را به او ارائه کرده بود، پس از تماس با او از گفتگو در مورد جلسه خودداری کرد. سخنگوی ECI به سوالات مطرح شده پاسخ نداد هندو.
در روز برگزاری نشست ECI، مدیران OpenAI همچنین میزگردی را با نمایندگان جامعه مدنی در هند درباره انتخابات آینده برگزار کردند.
مبارزه با اطلاعات نادرست
در طول و پس از نشست پشت درهای بسته در دهلی، به عنوان هندو در ماه گذشته گزارش شد، مقامات ارشد سابق وزارت فناوری اطلاعات و دانشمندان فناوری که در این جلسه شرکت کردند، گفتند که ECI میتواند در هماهنگی با پلتفرمهای فناوری بزرگ مانند OpenAI برای مبارزه با اطلاعات نادرست و اطلاعات نادرست در زمان افزایش حساسیتها در آستانه فصل انتخابات، کارهای بیشتری انجام دهد. .
در آن جلسه با نمایندگان جامعه مدنی، مقامات OpenAI همچنین تاکید کردند که آنها در این کشور هستند تا زمین را به دست آورند و مهمترین مسائل مربوط به هوش مصنوعی، مانند رسانههای مصنوعی (دیپفیک) و اطلاعات غلط را درک کنند. از آنجایی که هند به عنوان دومین پایگاه کاربر بزرگ شرکت پس از ایالات متحده ظاهر می شود، این گسترش اهمیت بیشتری پیدا می کند.
![](https://colbe.ir/wp-content/uploads/2024/03/1710313003_524_در-میان-ترس-از-سوء-استفاده-از-هوش-مصنوعی-در.jpg)
OpenAI هند را تحت پوشش خود قرار می دهد
OpenAI هنوز دفتری در هند یا کارمندان تمام وقت مستقر در این کشور ندارد. این شرکت در سطح بینالمللی در حال گسترش است و طبق گزارشها به دنبال تریلیونها دلار سرمایهگذاری برای ساخت زیرساختهای کامپیوتری مورد نیاز برای اجرای سیستمهای پرمصرف خود است، حتی در شرایطی که صنایع بیشتر و بیشتری به دنبال گنجاندن برنامههای کاربردی هوش مصنوعی در مشاغل خود هستند.
به گفته یکی از کارمندان OpenAI آشنا با این موضوع، این غول فناوری همچنین در حال انجام برخی تحقیقات در مقیاس کوچک در هند است که بر روی ارزیابی رویکرد این کشور به ریسک و سیاست هوش مصنوعی، زنجیره های تامین نیمه هادی ها و مشارکت های عمومی و خصوصی متمرکز است. برخی از ابتکارات تحقیقاتی OpenAI در هند خصوصی و فقط برای استفاده داخلی باقی خواهند ماند و برخی از آنها ممکن است در نهایت عمومی شوند.
این تحقیق از طریق نظرسنجی و مصاحبه تخصصی با چند ده نفر در هند، از جمله افرادی که در دولت هند، جامعه مدنی و دانشمندان دانشگاهی هوش مصنوعی هستند، با تمرکز بر مقامات شغلی در وزارتخانه ها و همچنین نهادهای غیر دولتی در هند انجام می شود. هند.
تعریف ریسک هوش مصنوعی
تحقیقات شرکت مستقر در سانفرانسیسکو در مورد درک ریسک هوش مصنوعی و زنجیره تامین نیمه هادی در هند بر درک رویکرد هند برای تعریف ریسک هوش مصنوعی متمرکز شده است. این تلاش ها بر اساس اسناد استراتژی هوش مصنوعی دولت و جامعه مدنی و دستورالعمل های اخلاقی است که سپس برای درک ادراک کشور و اولویت بندی ریسک هوش مصنوعی استفاده می شود.
برخی از عناصر خاص ریسک و سیاستگذاری هوش مصنوعی در هند که OpenAI به دنبال آن است، شامل خطرات در بخش آموزش و همچنین خوشبینی و اعتماد فزایندهای است که هند به مکانیسمهای همکاری عمومی و خصوصی، بهویژه در مقایسه با کشورهای دیگر در این زمینه دارد. منطقه
با کُلبه وبسایت و مجله فناوری و ابزارهای هوشمند ،بهترین تکنولوژی، بهترین آینده ، بروز بمانید