برای افرادی که در جشنواره فناوری پیشرو در تگزاس، ایالات متحده حضور داشتند، رسوایی که پس از انتشار تصاویر سربازان نازی سیاهپوست و آسیایی توسط چت بات گوگل به وجود آمد، به عنوان هشداری در مورد قدرتی که هوش مصنوعی میتواند به غولهای فناوری بدهد تلقی میشود.
ساندار پیچای، مدیر عامل گوگل، ماه گذشته پس از گاف هایی مانند تصاویر نیروهای نازی با تنوع قومیتی که کاربران را مجبور به ایجاد عکس از افراد کرد، از خطاهای “کاملا غیرقابل قبول” توسط اپلیکیشن هوش مصنوعی Gemini شرکتش انتقاد کرد.
کاربران رسانههای اجتماعی گوگل را به خاطر تصاویر نادرست تاریخی، مانند تصاویری که یک سناتور سیاهپوست زن آمریکایی از دهه 1800 نشان میدهد، مورد تمسخر و انتقاد قرار میدهند – زمانی که اولین سناتور این چنینی تا سال 1992 انتخاب نشد.
سرگئی برین، یکی از بنیانگذاران گوگل، در یک “هکاتون” اخیر هوش مصنوعی گفت: “ما قطعاً در تولید تصویر دچار مشکل شده ایم.” و افزود که این شرکت باید Gemini را به طور کامل آزمایش می کرد.
افرادی که در جشنواره محبوب هنر و فناوری South by Southwest در آستین مصاحبه کردند، گفتند که تلو تلو خوردن جمینی نشان دهنده قدرت بیش از حد تعداد انگشت شماری از شرکت ها بر پلتفرم های هوش مصنوعی است که می خواهند شیوه زندگی و کار مردم را تغییر دهند.
“خیلی بیدار”
جاشوا ویور، یک وکیل و کارآفرین فناوری، گفت: «در اصل، خیلی بیدار بود.
چارلی بورگوین، مدیر اجرایی آزمایشگاه علمی کاربردی Valkyrie در تگزاس گفت که گوگل به سرعت خطاهای خود را تصحیح کرد، اما مشکل اساسی همچنان باقی است.
او اصلاح جمینی توسط گوگل را با گذاشتن چسب زخم روی زخم گلوله برابر دانست.
آقای ویور خاطرنشان کرد: در حالی که گوگل مدتها وقت برای اصلاح محصولات خود داشت، اکنون در حال رقابت با هوش مصنوعی مایکروسافت، OpenAI، Anthropic و دیگران است و افزود: «آنها سریعتر از آنچه که میدانند حرکت میکنند، حرکت میکنند. ” اشتباهاتی که در تلاش برای حساسیت فرهنگی انجام می شود، به ویژه با توجه به اختلافات سیاسی پرتنش در ایالات متحده، وضعیتی که توسط پلتفرم X ایلان ماسک، توییتر سابق، تشدید شده است، نقطه اشتعال هستند.
آقای ویور گفت: “مردم در توییتر از جشن گرفتن هر اتفاق شرم آور که در فناوری رخ می دهد بسیار خوشحال هستند.”
او ادامه داد، با این حال، این اتفاق ناگوار، درجه کنترل افرادی که از ابزارهای هوش مصنوعی بر روی اطلاعات دارند را زیر سوال برد.
آقای ویور گفت، در دهه آینده، میزان اطلاعات – یا اطلاعات نادرست – ایجاد شده توسط هوش مصنوعی میتواند از اطلاعات تولید شده توسط افراد کمرنگ شود، به این معنی که کسانی که پادمانهای هوش مصنوعی را کنترل میکنند، تأثیر زیادی بر جهان خواهند داشت.
کارن پالمر، خالق برنده جایزه واقعیت ترکیبی با Interactive Films Ltd.، گفت که می تواند آینده ای را تصور کند که در آن شخصی سوار یک تاکسی ربات شود و «اگر هوش مصنوعی شما را اسکن کند و فکر کند که تخلفات برجسته ای علیه شما وجود دارد. … شما را به ایستگاه پلیس محلی می برند، نه مقصد مورد نظر شما.
هوش مصنوعی بر روی کوههایی از دادهها آموزش داده شده است و میتواند روی طیف رو به رشدی از وظایف، از تولید تصویر یا صدا گرفته تا تعیین اینکه چه کسی وام دریافت میکند یا اینکه آیا اسکن پزشکی سرطان را تشخیص میدهد، کار کند.
تعصب فرهنگی
اما این دادهها از دنیایی مملو از تعصبات فرهنگی، اطلاعات نادرست و نابرابری اجتماعی به دست میآیند – بدون ذکر محتوای آنلاین که میتواند شامل چتهای معمولی بین دوستان یا پستهای عمدی اغراقآمیز و تحریکآمیز باشد – و مدلهای هوش مصنوعی میتوانند این نقصها را منعکس کنند.
با Gemini، مهندسان گوگل سعی کردند الگوریتم ها را مجدداً متعادل کنند تا نتایجی که تنوع انسانی را بهتر منعکس می کند ارائه دهند. تلاش نتیجه معکوس داد.
الکس شهرستانی، وکیل فناوری، شریک مدیر شرکت حقوقی Promise Legal برای شرکتهای فناوری، گفت: «پی بردن به اینکه سوگیری کجاست و چگونه شامل میشود، واقعاً میتواند پیچیده، ظریف و ظریف باشد.
او و دیگران معتقدند، حتی مهندسان خوش نیتی که با آموزش هوش مصنوعی درگیر هستند، نمی توانند تجربه زندگی و سوگیری ناخودآگاه خود را در این فرآیند بیاورند.
آقای Burgoyne همچنین فناوری های بزرگ را به دلیل پنهان نگه داشتن عملکرد درونی هوش مصنوعی مولد در “جعبه های سیاه” مورد انتقاد قرار داد، بنابراین کاربران قادر به تشخیص سوگیری های پنهان نیستند. او گفت: «قابلیتهای خروجیها بسیار فراتر از درک ما از روششناسی است.
کارشناسان و فعالان خواهان تنوع بیشتر در تیمهایی هستند که هوش مصنوعی و ابزارهای مرتبط را ایجاد میکنند و شفافیت بیشتر در مورد نحوه کار آنها به ویژه زمانی که الگوریتمها درخواستهای کاربران را برای «بهبود» نتایج بازنویسی میکنند.
جیسون لوئیس از مرکز منابع آینده بومی و گروههای مرتبط در اینجا گفت که یک چالش این است که چگونه میتوان دیدگاههای جوامع متعدد و متنوع جهان را بهطور مناسب ایجاد کرد.
در هوش مصنوعی بومی، آقای لوئیس با جوامع بومی دوردست کار میکند تا الگوریتمهایی طراحی کند که از دادههای آنها به صورت اخلاقی استفاده میکنند و در عین حال دیدگاههای آنها را نسبت به جهان منعکس میکنند، چیزی که او همیشه در «غرور» رهبران بزرگ فناوری نمیبیند. او به گروهی گفت که کار خودش در «تضاد با لفاظیهای دره سیلیکون است، جایی که از بالا به پایین یک مزخرفات «اوه، ما این کار را میکنیم چون به نفع همه بشریت میشویم» وجود دارد، که خنده را به همراه دارد.
با کُلبه وبسایت و مجله فناوری و ابزارهای هوشمند ،بهترین تکنولوژی، بهترین آینده ، بروز بمانید