رای دهندگان اولیه در نیوهمپشایر از جو بایدن، رئیس جمهور ایالات متحده تماسی غیرقانونی دریافت کردند که از آنها خواسته بود در انتخابات مقدماتی شرکت نکنند. در جریان انتخابات اخیر پاکستان، عمران خان در زندان بود، اما حزب او همچنان موفق شد ویدئویی از او را در حال ایراد «سخنرانی پیروزی» پخش کند. یک روز قبل از انتخابات 2024 هند، میلیونها رایدهنده یک پیام ویدیویی واتساپ از نخستوزیر نارندرا مودی دریافت کردند که در آن به آنها هشدار داده بود که روز بعد به دلیل تهدید امنیت ملی، رای ندهند.
سخنرانی پیروزی عمران خان توسط هوش مصنوعی. | اعتبار عکس: یوتیوب
از سه داستان فوق فقط دو مورد واقعی است. هیچ جایزه ای برای حدس زدن کدام دو وجود ندارد. ابزارهای هوش مصنوعی (AI) به طور گسترده توسط نامزدها و احزاب سیاسی در سراسر جهان مورد استفاده قرار می گیرند – و مورد سوء استفاده قرار می گیرند. امسال، در حالی که بیش از 50 درصد از مردم جهان برای رای دادن برنامه ریزی شده اند، ترس این است که ابزارهای هوش مصنوعی می توانند دموکراسی را در سطح جهانی تضعیف کنند.
ابزارهای هوش مصنوعی می توانند به فروش دروغ به عنوان حقیقت و حتی حقیقت به عنوان دروغ کمک کنند. برخی این را “سود سهام دروغگو” نامیده اند. دروغگوها و کسانی که به دنبال اشتباه گرفتن یا پیچیدگی چیزها هستند، می توانند با ابزارهای هوش مصنوعی امروزی یک روز کاری داشته باشند. جای تعجب نیست که بسیاری از رهبران جهان، از جمله مودی، به طور خاص دیپ فیک ها را تهدیدی برای دموکراسی معرفی کرده اند. (دیپفیکها ویدیوهایی هستند که با استفاده از ابزارهای هوش مصنوعی ایجاد میشوند که تشخیص جعلی بودن آنها سخت است.)
تقویت تهدید
این تهدید چقدر بزرگ و واقعی است؟ آیا از تناسب منفجر می شود؟ ابزارهای هوش مصنوعی لزوما تهدید جدیدی نیستند. بازاریابان و مدیران کمپین در گذشته نیز ویدیوهای جعلی را منتشر کرده و اطلاعات نادرست را منتشر کرده اند. پس این بار چه تفاوتی دارد؟ هوش مصنوعی نه به عنوان یک تهدید جدید، بلکه یک «تقویتکننده تهدید» دیده میشود. حتی به تیمهای کوچکی از افراد این امکان را میدهد تا با ایجاد محتوای جعلی بسیار سریعتر و بهطور بالقوه هدفمندتر، تلاشهای خود را برای فریب رأیدهندگان «توربوشارژ» کنند.
نویسنده و پادکست Anirudh Suri | اعتبار عکس: ترتیب ویژه
با این حال، در تمام تبلیغات در مورد هوش مصنوعی که بر انتخابات سال 2024 تأثیر می گذارد، تأثیر مستمر رسانه های اجتماعی نباید در پس زمینه قرار گیرد. ابزارهای هوش مصنوعی در درجه اول برای ایجاد محتوا استفاده می شوند، اما پلتفرم های رسانه های اجتماعی توزیع گسترده محتوای جعلی را امکان پذیر می کنند. سهولت استفاده از ابزارهای هوش مصنوعی، همراه با قدرت توزیعی رسانه های اجتماعی، واقعاً می تواند تلاش های دستکاری انتخابات را در مقیاسی که قبلا غیرقابل تصور بود، تسریع بخشد.
در اینجا یک مثال ساده از نحوه انجام آن وجود دارد. یک روز قبل از انتخابات، یک تماس خودکار دریافت می کنید که در آن نام، اتاق رای گیری و آدرس صندوقی که قرار است در آن رای دهید، ذکر می شود. به جز، نام و مکان اتاق رای گیری عمداً اشتباه بیان شده است، بنابراین شما در غرفه اشتباهی قرار می گیرید. حتی ممکن است یک پیام رسمی واتس اپ با همان اطلاعات جعلی دریافت کنید. چند هزار رای دهنده – احتمالاً از یک رقیب حمایت می کنند – به طور خاص توسط یک موتور هوش مصنوعی بر اساس تحلیل احساسات فعالیت رسانه های اجتماعی آنها برای این تمرین بسیار هدفمند انتخاب می شوند. تکرار آن به زبانهای هندی مختلف در حوزههای مختلف، میتواند نتیجه انتخابات را تغییر دهد.
این دستکاری ممکن است خارج از هند نیز سرچشمه بگیرد. همانطور که در کتابم بحث کرده ام، فناوری با ژئوپلیتیک در هم آمیخته شده است بازی بزرگ فناوری. خطرات ژئوپلیتیکی ناشی از اختلال در انتخابات هند توسط هوش مصنوعی نیز بسیار واقعی است. به عنوان مثال، چین از استفاده از فناوری برای پیشبرد اهداف ژئوپلیتیکی خود کوتاهی نکرده است. چند سال اخیر روابط سرد با هند ممکن است چین را وسوسه کند تا با استفاده از عملیات نفوذ مبتنی بر هوش مصنوعی و همچنین دیپ فیک، رای دهندگان هند را به چالش بکشد. حتی اگر قادر به تغییر نتیجه نباشد، یک چین مستبد نمیخواهد فرصت ایجاد شکاف و ایجاد اختلاف در یک هند دموکراتیک را از دست بدهد.
بنابراین آیا اجتناب ناپذیر است که سال 2024 سال انتخابات «عمیق» در سراسر جهان از جمله هند باشد؟ نه، نه لزوما. اعتراف به تهدید اولین گام برای یافتن راه حل است. اما بسیاری از بازیگران کلیدی باید برای مقابله با این مشکل دور هم جمع شوند.
جلوگیری از سوء استفاده
اول، کمیسیون انتخابات هند باید دستورالعملهای سختگیرانهای را برای ایجاد و توزیع چنین دیپفیکهایی با هوش مصنوعی در آستانه انتخابات اجرا کند. نمونههایی از این سرکوبها در سرتاسر جهان وجود دارد، از جمله حکم اخیر کمیسیون ارتباطات فدرال ایالات متحده در مورد غیرقانونی بودن تماسهای رباتیک با استفاده از صداهای تولید شده توسط هوش مصنوعی.
دوم، فناوری بزرگ باید نقش سازنده و فعالانه ای در کاهش تهدید ایفا کند. در کنفرانس امنیتی مونیخ در فوریه، چندین شرکت فناوری متعهد شدند که اقدامات احتیاطی منطقی را برای جلوگیری از سوء استفاده از ابزارهای هوش مصنوعی در انتخابات آینده انجام دهند. در حالی که منتقدان این توافق را ناکافی و فاقد دندان می دانستند، اولین قدم خوبی بود. تیم های انتخاباتی آن ها باید با تیم های مهندسی و هوش مصنوعی خود برای توسعه دستورالعمل ها و ابزارهای فنی برای جلوگیری از توزیع گسترده چنین محتوایی همکاری کنند. این شرکتها با هم باید استانداردهای کل صنعت را برای شناسایی و برچسبگذاری محتوای دارای هوش مصنوعی ایجاد کنند، با اقدامات سختگیرانه زمانی که چنین محتوایی ماهیت سیاسی یا انتخاباتی دارد.
وزیر امور خارجه اس. جایشانکار در گفتگو با فرد کمپ رئیس شورای آتلانتیک در حاشیه کنفرانس امنیتی مونیخ 2024. | اعتبار عکس: ANI
در صورت نیاز، کمیسیون انتخابات باید پلتفرمهای فناوری، بهویژه پلتفرمهای رسانههای اجتماعی، از جمله احتمال مجازاتهای احتمالی را پاسخگو نگه دارد. قدرت زیاد مسئولیت زیاد هم می آورد. و با جیب های عمیق و تیم های مهندسی بزرگ، توانایی زیادی برای یافتن راه حل های مبتنی بر فناوری برای چنین مشکلاتی وجود دارد.
سوم، دولت ها باید قوانین لازم را برای این گونه اقدامات پیشگیرانه و تنبیهی وضع کنند. قانون گذاری ممکن است قبل از انتخابات امکان پذیر نباشد. اما مشکل از بین نمی رود، و بنابراین، قانون باید زودتر از آن ارائه شود.
چهار، احزاب سیاسی و خود نامزدها نیز باید امسال در تعهدات داوطلبانه خود ثبت نام کنند تا از دیپ فیک استفاده نکنند. رای دهندگان همچنین باید – از طریق کمپین هایی که توسط کمیسیون انتخابات یا تلاش های بشردوستانه تامین می شود – از خطرات و شیوع دیپ فیک آگاه شوند.
یک نکته پایانی استراتژی ملی هوش مصنوعی فعلی هند یک موضوع کلیدی را برجسته می کند: #AIForGood. یعنی هند می خواهد از هوش مصنوعی برای منافع عمومی استفاده کند. هیچ کالای عمومی بهتری از این وجود ندارد که همه دور هم جمع شوند تا راه هایی برای استفاده از #AIForGoodElections بیابند.
تعمیق دموکراسی
مانند هر فناوری قدرتمند دیگری، هوش مصنوعی بسته به نیات افرادی که از آن استفاده می کنند، می تواند برای خیر یا شر استفاده شود. ابزارهای هوش مصنوعی می توانند اخلاق دموکراتیک ما را عمیق تر کنند و گفتمان سیاسی ما را نماینده تر کنند. هوش مصنوعی میتواند برای شناسایی بهتر مسائلی که برای بخشهای مختلف رأیدهندگان مهم است، استفاده شود. سیاستمداران می توانند از ابزارهای هوش مصنوعی برای برقراری ارتباط به زبان هایی فراتر از زبان های رایج یا رسمی استفاده کنند. هوش مصنوعی می تواند برای تشخیص تقلب در سطح غرفه استفاده شود. هوش مصنوعی میتواند برای نقشهبرداری و مکانیابی بهتر اتاقهای انتخابات در سراسر کشور استفاده شود، نه اینکه آنها را برای افراد دارای تواناییهای متفاوت در دسترستر کند. لیست بی پایان است.
مردم به طور طبیعی تمایل دارند روی خطرات فناوری های جدید و در حال ظهور تمرکز کنند. اما دهه گذشته اعتماد هند را با پذیرش فناوری نشان داده است، همانطور که با نفوذ موفق تلفن های هوشمند و UPI مشهود است. در سال 2024، گفتمان عمومی در هند باید بازیگران کلیدی، از جمله استارتآپهای فناوری و کارآفرینان را تشویق و تشویق کند تا از هوش مصنوعی برای دموکراتیکتر کردن انتخابات استفاده کنند، نه کمتر. این بزرگترین تمرین دموکراتیک جهان را به یک تمرین واقعاً راهگشا تبدیل می کند و الهام بخش دموکراسی ها در سراسر جهان می شود.
نویسنده یک محقق غیرمقیم در Carnegie India و میزبان پادکست The Great Tech Game است.
با کُلبه وبسایت و مجله فناوری و ابزارهای هوشمند ،بهترین تکنولوژی، بهترین آینده ، بروز بمانید