آیا ChatGPT میتواند اخبار جعلی را شناسایی کند؟
با توجه به مطالعاتی که توسط کوین کارامانسیون انجام شد هوش مصنوعی به طور دقیق نمیتواند اخبار جعلی را شناسایی کند.
به گزارش خبرنگار پایگاه خبری لوازم خانگی ایران «ال کا ایران»، مدلهای زبان بزرگ (Large Language Models) با توانایی تولید متنی شبیه به نوشتار انسان، صنعت هوش مصنوعی را به چالش کشیده است. یکی از محبوبترین مدلهای زبان بزرگ، ChatGPT از کمپانی OpenAI میباشد. این مدلها در بسیاری از وظایف مرتبط با زبان مانند تولید متن، نوشتاری و کدنویسی، دقت و کارایی بالایی دارند و به صورت گسترده در مطالعات مختلف از آنها استفاده میشود. با این وجود، تحقیقات اخیر توسط کوین مته کارامانسیون (Kevin Matthe Caramancion) از دانشگاه ویسکانسین-استوت، (Wisconsin-Stout) بهمنظور ارزیابی توانایی مدلهای زبان بزرگ معروف در شناسایی خبرهای جعلی انجام شده است.
شناسایی اخبار جعلی توسط هوش مصنوعی
بازنشر اطلاعات نادرست در دوران دیجیتال امروز به یک چالش قابل توجه تبدیل شده است زیرا اطلاعات با سرعت بسیار بالا از طریق اینترنت و پلتفرمهای رسانهای اجتماعی منتشر میشوند. شناسایی و ردیابی داستانهای جعلی بسیار مهم است تا از آثار منفی آنها جلوگیری شود. تحقیقات و مطالعه کارامانسیون به بررسی این موضوع میپردازد که آیا مدلهای زبان بزرگ میتوانند بهطور موثر با این مسئله مقابله کنند.
برای ارزیابی عملکرد مدلهای زبان بزرگ در شناسایی خبرهای جعلی، کارامانسیون چهار مدل شناخته شده را آزمایش کرد: Chat GPT-3.0 و Chat GPT-4.0 از اوپن ای آی، Bard/LaMDA از گوگل و Bing AI از مایکروسافت. در این مطالعه مجموعهای از 100 خبر واقعی را که از آژانسهای حقیقتسنجی بهدستآمده بود استفاده کردند. پاسخهای مدلها به این اخبار در سه دسته درست، نادرست و تا حدی درست/نادرست طبقهبندی شدند.
OpenAI’s GPT-4.0
نتایج این مطالعه نشان داد که GPT-4.0 از OpenAI در شناسایی اخبار واقعی و نادرست از مدلهای دیگر بهتر عمل میکند. با این حال، باید توجه کرد که تمامی مدلهای زبانی بزرگ نسبت به حقیقتسنجهای انسانی عقب افتادند. این نکته مهم، ارزش بینظیر شناخت انسان و ضرورت یکپارچهسازی متوازن هوش مصنوعی و مهارتهای انسانی را برجسته میکند.
بیشتر بدانید: چگونگی عملکرد ChatGPT و نحوه استفاده از آن
مطالعه بیشتر
پژوهشگر کوین مت جان کارامانسیون قصد دارد تا به بررسی پیشرفت قابلیتهای هوش مصنوعی در شناسایی خبرهای جعلی ادامه دهد. تمرکز او بر روی این است که چگونه میتوانیم از این پیشرفتها بهره ببریم و تواناییهای شناختی منحصر به فرد انسانها را نیز تشخیص دهیم. بیتردید این پژوهش به درک ما از قابلیتهای هوش مصنوعی و همکاری همزیستی این تکنولوژی با هوش انسانی کمک خواهد کرد.
در نتیجه، مدلهای زبان بزرگ مانند ChatGPT توانایی تولید متن شبیه به انسان و انجام وظایف مختلف مربوط به زبان را به نمایش گذاشتهاند. با این حال، کارایی آنها در شناسایی خبرهای جعلی هنوز در مراحل ابتدایی خود است. مطالعه انجام شده توسط کوین مات کارامانسیون، عملکرد مدلهای زبانی معروف را در شناسایی اخبار واقعی و نادرست ارزیابی کرد. در حالی که نتایج خوبی را نشان داد، همه مدلها از حقیقتسنجهای انسانی عقب ماندند. این پژوهش ترکیب هوش مصنوعی با هوش انسانی را برجسته میکند. در آخر باید توجه داشت که هوش مصنوعی هنوز به مرحله شبیه شدن به انسان نرسیده است.
انتهای پیام/