بی‌بی‌سی :۹۱ درصد از پاسخ‌های اخبار هوش مصنوعی مشکل دارند.

مطالعه بی‌بی‌سی نشان می‌دهد که چت‌بات‌های هوش مصنوعی پیشرو به طور مداوم محتوای خبری را تحریف می‌کنند و نگرانی‌هایی را در مورد صحت و اعتماد اطلاعات ایجاد می‌کنند.

چت‌بات‌های هوش مصنوعی بیشتر از اینکه اخبار را درست بگویند، اشتباه می‌گویند.
برندهای مورد اعتمادی مانند بی‌بی‌سی کنترل محتوای خود را از دست می‌دهند.
این مشکل در کل صنعت وجود دارد و همه پلتفرم‌های اصلی هوش مصنوعی را تحت تاثیر قرار می‌دهد.

این گزارشی که از بی‌بی‌سی ترجمه کرده‌اید، به مشکلاتی اشاره دارد که دستیارهای هوش مصنوعی در پاسخ به سوالات خبری دارند. به نظر می‌رسد که بسیاری از این ابزارها دچار اشتباهاتی می‌شوند که می‌تواند اطلاعات نادرست و گمراه‌کننده به مخاطبان ارائه دهد.

این نتیجه‌گیری از مطالعه‌ای است که توسط خبرنگاران بی‌بی‌سی انجام شده و در آن پاسخ‌های چهار دستیار هوش مصنوعی مختلف (ChatGPT، Copilot، Google’s Gemini و Perplexity) مورد بررسی قرار گرفته است. بر اساس این مطالعه، بیش از نیمی از پاسخ‌ها مشکلات جدی داشتند و بیش از ۹۰٪ پاسخ‌ها دچار خطاهایی بودند. این مطالعه همچنین نشان داده که دستیارهای هوش مصنوعی به سختی می‌توانند بین واقعیت و نظر تمایز قائل شوند و زمینه لازم را فراهم کنند.

در نمونه‌هایی که این مطالعه ارائه داده، اشتباهاتی مانند نقل قول نادرست از منابع معتبر، اطلاعات تاریخی غلط و ارائه داده‌های آماری نادرست وجود دارد.

این یافته‌ها نشان می‌دهند که دستیارهای هوش مصنوعی هنوز نیاز به بهبود دارند تا بتوان به آنها برای ارائه اخبار دقیق و قابل اعتماد اتکا کرد.

این بخش گزارش بی‌بی‌سی اهمیت موضوع را توضیح می‌دهد که چرا خطاهای مکرر دستیارهای هوش مصنوعی می‌تواند نگران‌کننده باشد، زیرا احتمال انتشار اطلاعات نادرست را افزایش می‌دهد. حتی جملات دقیق می‌توانند در صورت عدم ارائه زمینه مناسب گمراه‌کننده باشند.

این گزارش تأکید می‌کند که اعتماد مخاطبان به دقت اخبار، چه در تلویزیون، رادیو، پلتفرم‌های دیجیتال یا از طریق دستیار هوش مصنوعی، ضروری است. زیرا جامعه بر اساس فهم مشترکی از حقایق عمل می‌کند و نادرستی و تحریف می‌تواند منجر به آسیب‌های واقعی شود.

این یافته‌ها با مطالعات دیگری که به اعتماد عمومی به چت‌بات‌های هوش مصنوعی پرداخته‌اند نیز همسو هستند. این مطالعات نشان می‌دهند که اعتماد به هوش مصنوعی به طور مساوی تقسیم شده است، اما ترجیح واضحی به روزنامه‌نگاری انسانی وجود دارد.

برای بازاریابان، این یافته‌های بی‌بی‌سی نکاتی را برجسته می‌کند:

  • دقت اهمیت دارد: محتوای دقیق برای ساختن اعتماد ضروری است. محتوای تولید شده توسط هوش مصنوعی که دارای خطا باشد می‌تواند به شهرت یک برند آسیب بزند.
  • بررسی انسانی لازم است: در حالی که هوش مصنوعی می‌تواند فرآیند تولید محتوا را ساده کند، بررسی‌های انسانی برای شناسایی خطاها و اطمینان از کیفیت حیاتی است.
  • هوش مصنوعی ممکن است فاقد زمینه باشد: این مطالعه نشان می‌دهد که هوش مصنوعی اغلب با ارائه زمینه و تمایز بین واقعیت‌ها و نظرات مشکل دارد. بازاریابان باید از این محدودیت آگاه باشند.
  • انتساب صحیح: هنگام استفاده از هوش مصنوعی برای خلاصه‌سازی یا ارجاع به منابع، اطمینان حاصل کنید که به صفحات صحیح اعتبار داده و لینک کنید.

با فراگیر شدن هوش مصنوعی، بازاریابان باید در نظر داشته باشند که مخاطبان را آگاه کنند که چه زمانی و چگونه از هوش مصنوعی استفاده می‌کنند تا اعتماد را حفظ کنند.

talahost.com

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *