«پويش اقتصاد» گزارش مي‌دهد:

چرا هوش مصنوعی به جای پیشرفت، پسرفت می‌کند؟

پویش اقتصاد:آزمایش‌ها نشان داده پنج مدل مطرح هوش مصنوعی از جمله Grok (چت‌بات متعلق به ایلان ماسک) توانسته ۲۰ ادعای نادرست را به درستی رد کند.

اما تنها چند روز بعد، با اعمال تغییراتی از سوی ماسک، Grok شروع به انتشار محتوای افراطی کرد؛ نشانه‌ای نگران‌کننده از اینکه چقدر راحت می‌توان این فناوری‌ها را دستکاری کرد.

مشکل فراتر از خطاست: «گروه‌فکری» در دل الگوریتم‌ها

مدل‌های هوش مصنوعی نه‌تنها گاهی اطلاعات نادرست تولید می‌کنند، بلکه به جای پاسخ‌های درست، اغلب رایج‌ترین پاسخ‌ها را ارائه می‌دهند—even if wrong. این پدیده به نوعی گروه‌فکری الگوریتمی تبدیل شده که اطلاعات اشتباه را تقویت می‌کند.

بررسی ها نشان داد که حتی در پاسخ به پرسش‌هایی ساده، مدل‌ها پاسخ‌های متناقض و گاه نادرستی ارائه می‌دهند.

بازی قدرت اطلاعاتی: دستکاری هدفمند داده‌ها

مطالعات NewsGuard نشان می‌دهد که کشورهایی مانند روسیه عمداً اطلاعات غلط را با حجم بالا منتشر می‌کنند تا مدل‌های هوش مصنوعی را “مسموم” کنند. نتایج آزمایش‌ها حاکی از آن است که ۲۴٪ از مواقع، مدل‌ها توان تشخیص اطلاعات نادرست را ندارند.

وقتی مدل‌ها به جای تفکر، تکرار می‌کنند

تحقیقات دانشگاه‌های Wharton و Columbia نشان داده‌است که استفاده از هوش مصنوعی خلاقیت را کاهش داده و تمایل به تکرار دیدگاه‌های رایج را تقویت می‌کند. برخی مدل‌ها حتی نتوانستند منبع یک مقاله را از روی متن آن تشخیص دهند—کاری که موتور جستجوی گوگل به‌راحتی انجام می‌دهد.

آینده متعلق به «هوش انسانی»

هوش مصنوعی در حال حاضر در بسیاری از موارد نمی‌تواند واقعیت را از شایعه جدا کند، به‌ویژه زمانی که درگیر تعصبات الگوریتمی یا داده‌های نادرست شود. به همین دلیل، جایگاه روزنامه‌نگاری و بررسی‌های انسانی بیش از پیش اهمیت پیدا می‌کند.

 

 

ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.