![شرکت های فناوری با Thorn، سازمانی که از فناوری برای مبارزه با کودک آزاری استفاده می کند، کار می کنند [File] شرکت های فناوری با Thorn، سازمانی که از فناوری برای مبارزه با کودک آزاری استفاده می کند، کار می کنند [File]](https://colbe.ir/wp-content/uploads/2024/03/Minfy-با-AWS-همکاری-میکند-تا-تحولات-هوش-مصنوعی-و.png)
شرکت های فناوری با Thorn، سازمانی که از فناوری برای مبارزه با کودک آزاری استفاده می کند، کار می کنند [File]
| اعتبار عکس: رویترز
شرکتهای بزرگ هوش مصنوعی و فناوری از جمله OpenAI، Google و Meta متعهد شدهاند که به توافقی با هدف سرکوب رسانههای سوءاستفاده جنسی از کودکان که با فناوریها و ابزارهای هوش مصنوعی تولید شدهاند، سرکوب کنند.
شرکتهای فناوری با Thorn، سازمانی که از فناوری برای مبارزه با کودک آزاری استفاده میکند، و همچنین All Tech is Human، یک سازمان غیرانتفاعی که مشکلات فناوری را مدیریت میکند، کار میکنند.
با همکاری Thorn و All Tech Is Human، Amazon، Anthropic، Civitai، Google، Meta، Metaphysic، Microsoft، Mistral AI، OpenAI و Stability AI به طور عمومی به اصول طراحی ایمنی متعهد هستند. تورن در یک پست رسمی روز سه شنبه گفت: این اصول از ایجاد و گسترش مواد سوء استفاده جنسی از کودکان (AIG-CSAM) تولید شده توسط هوش مصنوعی و سایر آسیب های جنسی علیه کودکان محافظت می کند.
تورن از این شرکتها خواست که از مجموعه دادههای ایمن و اخلاقی که حاوی تصاویر سوء استفاده جنسی از کودکان نیستند، برای آزمایش استرس فرآیندهای تولید رسانههای هوش مصنوعی خود و همچنین توسعه ابزارها و راهحلهای تشخیص سوء استفاده از کودکان استفاده کنند.
(برای اخبار برتر فناوری روز، در خبرنامه فناوری امروز ما مشترک شوید)
به غیر از ترس از اینکه مجرمان می توانند از هوش مصنوعی مولد برای ایجاد رسانه های سوء استفاده از کودکان استفاده کنند یا کودکان واقعی را با آن هدف قرار دهند، کارشناسان نگرانی هایی را در مورد آموزش مدل های هوش مصنوعی با مجموعه داده های با کیفیت بد که شامل مواد سوء استفاده جنسی از کودکان (به عنوان CSAM نامیده می شود) مطرح کرده اند. یا CSEM) در منبع آنها.
بلومبرگ در دسامبر 2023 گزارش داد که یکی از نمونههای این مجموعه دادههای عظیم LAION-5B با میلیاردها تصویر است که طبق گزارش رصدخانه اینترنتی استنفورد میتواند حاوی مقادیر زیادی از مواد احتمالی کودک آزاری باشد.
برای برخی از مدلها، قابلیتهای تعمیم ترکیبی آنها بیشتر به آنها اجازه میدهد مفاهیم (مثلاً محتوای جنسی بزرگسالان و تصاویر غیرجنسی کودکان) را با هم ترکیب کنند تا سپس AIG-CSAM تولید کنند. از داده های آموزشی با خطر شناخته شده حاوی CSAM و CSEM اجتناب کنید یا کاهش دهید.
اشتون کوچر، بازیگر هالیوودی، تورن را در سال 2009 با شریک سابقش دمی مور تأسیس کرد، در حالی که شریک فعلی او، میلا کونیس، ناظر هیئت مدیره بود.
![](https://colbe.ir/wp-content/uploads/2024/04/شرکتهای-پیشرو-هوش-مصنوعی-متعهد-میشوند-که-رسانههای-کودک-آزاری.png)
با این حال، کوچر و کونیس سال گذشته پس از اینکه مشخص شد نامههایی در حمایت از همبازی سابق دنی مسترسون، که به تجاوز جنسی محکوم شده بود، نوشتهاند، با خشم عمومی مواجه شدند. این دو بازیگر در نامهها، شخصیت مسترسون را تضمین کردند و از او تمجید کردند.
با گسترش خشم و درگیری آنها با سازمان ضد سوء استفاده جنسی از کودکان، کاچر و کونیس با هم یک ویدیوی عذرخواهی فیلمبرداری کردند.
در ماه سپتامبر، کوچر از ریاست هیئت مدیره تورن استعفا داد. کونیس نیز موقعیت خود را ترک کرد.
در حالی که شرکتهای بزرگ فناوری از نظر قانونی موظف به اعمال تدابیر امنیتی برای جلوگیری از ساخت رسانههای کودک آزاری مبتنی بر هوش مصنوعی هستند، پلتفرمها و ابزارهای کوچکتر غیرقانونی آنلاین بیشماری وجود دارند که چنین فیلترهای محتوایی را اعمال نمیکنند.
با کُلبه وبسایت و مجله فناوری و ابزارهای هوشمند ،بهترین تکنولوژی، بهترین آینده ، بروز بمانید