«پويش اقتصاد» گزارش ميدهد:
اما تنها چند روز بعد، با اعمال تغییراتی از سوی ماسک، Grok شروع به انتشار محتوای افراطی کرد؛ نشانهای نگرانکننده از اینکه چقدر راحت میتوان این فناوریها را دستکاری کرد.
مشکل فراتر از خطاست: «گروهفکری» در دل الگوریتمها
مدلهای هوش مصنوعی نهتنها گاهی اطلاعات نادرست تولید میکنند، بلکه به جای پاسخهای درست، اغلب رایجترین پاسخها را ارائه میدهند—even if wrong. این پدیده به نوعی گروهفکری الگوریتمی تبدیل شده که اطلاعات اشتباه را تقویت میکند.
بررسی ها نشان داد که حتی در پاسخ به پرسشهایی ساده، مدلها پاسخهای متناقض و گاه نادرستی ارائه میدهند.
بازی قدرت اطلاعاتی: دستکاری هدفمند دادهها
مطالعات NewsGuard نشان میدهد که کشورهایی مانند روسیه عمداً اطلاعات غلط را با حجم بالا منتشر میکنند تا مدلهای هوش مصنوعی را “مسموم” کنند. نتایج آزمایشها حاکی از آن است که ۲۴٪ از مواقع، مدلها توان تشخیص اطلاعات نادرست را ندارند.
وقتی مدلها به جای تفکر، تکرار میکنند
تحقیقات دانشگاههای Wharton و Columbia نشان دادهاست که استفاده از هوش مصنوعی خلاقیت را کاهش داده و تمایل به تکرار دیدگاههای رایج را تقویت میکند. برخی مدلها حتی نتوانستند منبع یک مقاله را از روی متن آن تشخیص دهند—کاری که موتور جستجوی گوگل بهراحتی انجام میدهد.
آینده متعلق به «هوش انسانی»
هوش مصنوعی در حال حاضر در بسیاری از موارد نمیتواند واقعیت را از شایعه جدا کند، بهویژه زمانی که درگیر تعصبات الگوریتمی یا دادههای نادرست شود. به همین دلیل، جایگاه روزنامهنگاری و بررسیهای انسانی بیش از پیش اهمیت پیدا میکند.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰