![چندین شرکت هوش مصنوعی در حال دور زدن استاندارد وب رایج مورد استفاده ناشران هستند. چندین شرکت هوش مصنوعی در حال دور زدن استاندارد وب رایج مورد استفاده ناشران هستند.](https://colbe.ir/wp-content/uploads/2024/05/Truecaller-introduces-AI-call-scanner-for-Android-users.png)
چندین شرکت هوش مصنوعی در حال دور زدن استاندارد وب رایج مورد استفاده ناشران هستند. | اعتبار عکس: رویترز
استارت آپ مجوز محتوا TollBit به ناشران گفته است که چندین شرکت هوش مصنوعی در حال دور زدن استاندارد وب مشترکی هستند که توسط ناشران برای جلوگیری از حذف محتوای آنها برای استفاده در سیستم های هوش مصنوعی مولد استفاده می شود.
نامه ای به ناشران که روز جمعه توسط رویترز مشاهده شد، که نام شرکت های هوش مصنوعی یا ناشران آسیب دیده را ذکر نکرد، در بحبوحه اختلاف عمومی بین استارتاپ جستجوی هوش مصنوعی Perplexity و رسانه رسانه ای فوربس که شامل همان استاندارد وب و بحث گسترده تر بین شرکت های فناوری و رسانه است، منتشر شد. بیش از ارزش محتوا در عصر هوش مصنوعی مولد.
ناشر رسانههای تجاری علناً Perplexity را به سرقت داستانهای تحقیقاتی خود در خلاصههای تولید شده توسط هوش مصنوعی بدون استناد به فوربس یا درخواست مجوز از آن متهم کرد.
تحقیقات Wired که این هفته منتشر شد نشان داد که Perplexity احتمالاً تلاشها برای مسدود کردن خزنده وب خود را از طریق پروتکل حذف Robots یا “robots.txt” که یک استاندارد پذیرفتهشده بهطور گسترده برای تعیین قسمتهایی از یک سایت مجاز به خزیدن است دور میزند.
(برای اخبار برتر فناوری روز، در خبرنامه فناوری امروز ما مشترک شوید)
Perplexity درخواست رویترز برای اظهار نظر در مورد اختلاف را رد کرد.
News Media Alliance، یک گروه تجاری که بیش از 2200 ناشر مستقر در ایالات متحده را نمایندگی می کند، نسبت به تاثیری که نادیده گرفتن سیگنال های “نخزیدن” بر اعضای آن می تواند داشته باشد ابراز نگرانی کرد.
دانیل کافی، رئیس این گروه، گفت: “بدون توانایی انصراف از خراش های گسترده، ما نمی توانیم از محتوای ارزشمند خود درآمد کسب کنیم و به روزنامه نگاران پول بدهیم. این می تواند به صنعت ما آسیب جدی وارد کند.”
TollBit، یک استارتاپ در مراحل اولیه، خود را به عنوان یک خواستگار بین شرکتهای هوش مصنوعی تشنه محتوا و ناشران آماده برای قراردادهای صدور مجوز قابل توجه با آنها قرار میدهد.
این شرکت ترافیک هوش مصنوعی را به وبسایتهای ناشران ردیابی میکند و از تجزیه و تحلیل برای کمک به هر دو طرف برای پرداخت هزینههایی که برای استفاده از انواع مختلف محتوا پرداخت میشود، استفاده میکند.
برای مثال، ناشران ممکن است نرخهای بالاتری را برای «محتوای ممتاز، مانند آخرین اخبار یا بینشهای انحصاری» تعیین کنند، این شرکت در وبسایت خود میگوید.
می گوید تا ماه مه 50 وب سایت فعال داشته است، هرچند نامی از آنها نبرده است.
با توجه به نامه TollBit، Perplexity تنها مجرمی نیست که به نظر می رسد robots.txt را نادیده می گیرد.
TollBit گفت که تجزیه و تحلیلهای آن نشان میدهد که عوامل هوش مصنوعی «تعدادی» از پروتکل دور میزنند، ابزار استانداردی که توسط ناشران برای نشان دادن قسمتهایی از سایتش قابل خزیدن است.
TollBit نوشت: «این به معنای عملی این است که عوامل هوش مصنوعی از منابع متعدد (نه فقط یک شرکت) برای بازیابی محتوا از سایتها، پروتکل robots.txt را دور میزنند. “هر چه لاگ های ناشر بیشتری جذب کنیم، این الگو بیشتر ظاهر می شود.”
پروتکل robots.txt در اواسط دهه 1990 به عنوان راهی برای جلوگیری از بارگیری بیش از حد وب سایت ها با خزنده های وب ایجاد شد. اگرچه هیچ مکانیسم اجرای قانونی مشخصی وجود ندارد، اما از نظر تاریخی مطابقت گسترده ای در وب وجود داشته است و برخی از گروه ها – از جمله News Media Alliance – می گویند که ممکن است هنوز برای ناشران توسل قانونی وجود داشته باشد.
اخیراً، robots.txt به ابزاری کلیدی تبدیل شده است که ناشران برای ممانعت از دریافت محتوای رایگان شرکتهای فناوری برای استفاده در سیستمهای هوش مصنوعی که میتوانند خلاقیت انسان را تقلید کرده و مقالات را فوراً خلاصه کنند، استفاده کنند.
شرکتهای هوش مصنوعی از محتوا هم برای آموزش الگوریتمهای خود و هم برای تولید خلاصهای از اطلاعات بلادرنگ استفاده میکنند.
برخی از ناشران، از جمله نیویورک تایمز، از شرکتهای هوش مصنوعی به دلیل نقض حق نسخهبرداری در این استفادهها شکایت کردهاند. دیگران در حال امضای قراردادهای مجوز با شرکتهای هوش مصنوعی هستند که میخواهند برای محتوا پرداخت کنند، اگرچه طرفین اغلب بر سر ارزش مواد اختلاف نظر دارند. بسیاری از توسعهدهندگان هوش مصنوعی استدلال میکنند که هیچ قانونی را برای دسترسی رایگان به آنها زیر پا نگذاشتهاند.
تامسون رویترز، صاحب خبرگزاری رویترز، از جمله کسانی است که قراردادهایی برای مجوز محتوای خبری برای استفاده توسط مدل های هوش مصنوعی منعقد کرده است.
ناشران به ویژه از زمانی که گوگل محصولی را در سال گذشته عرضه کرد که از هوش مصنوعی برای ایجاد خلاصه در پاسخ به برخی سؤالات جستجو استفاده می کند، زنگ خطر را در مورد خلاصه اخبار به صدا درآورده اند.
اگر ناشران میخواهند از استفاده محتوایشان توسط هوش مصنوعی گوگل برای کمک به تولید آن خلاصهها جلوگیری کنند، باید از همان ابزاری استفاده کنند که از نمایش آنها در نتایج جستجوی Google نیز جلوگیری میکند و آنها را تقریباً در وب نامرئی میکند.
با کُلبه وبسایت و مجله فناوری و ابزارهای هوشمند ،بهترین تکنولوژی، بهترین آینده ، بروز بمانید