فناوری

آیا ChatGPT می‌تواند اخبار جعلی را شناسایی کند؟

با توجه به مطالعاتی که توسط کوین کارامانسیون انجام شد هوش مصنوعی به طور دقیق نمی‌تواند اخبار جعلی را شناسایی کند.

امیر علی وحیدی | 9 ماه قبل

به گزارش خبرنگار پایگاه خبری لوازم خانگی ایران «ال کا ایران»، مدل‌های زبان بزرگ (Large Language Models) با توانایی تولید متنی شبیه به نوشتار انسان، صنعت هوش مصنوعی‌ را به چالش کشیده است. یکی از محبوب‌ترین مدل‌های زبان بزرگ، ChatGPT از کمپانی OpenAI می‌باشد. این مدل‌ها در بسیاری از وظایف مرتبط با زبان مانند تولید متن، نوشتاری و کدنویسی، دقت و کارایی بالایی دارند و به صورت گسترده در مطالعات مختلف از آنها استفاده می‌شود. با این وجود، تحقیقات اخیر توسط کوین مته کارامانسیون (Kevin Matthe Caramancion) از دانشگاه ویسکانسین-استوت، (Wisconsin-Stout) به‌منظور ارزیابی توانایی مدل‌های زبان بزرگ معروف در شناسایی خبرهای جعلی انجام شده است.

شناسایی اخبار جعلی توسط هوش مصنوعی

بازنشر اطلاعات نادرست در دوران دیجیتال امروز به یک چالش قابل توجه تبدیل شده است زیرا اطلاعات با سرعت بسیار بالا از طریق اینترنت و پلتفرم‌های رسانه‌ای اجتماعی منتشر می‌شوند. شناسایی و ردیابی داستان‌های جعلی بسیار مهم است تا از آثار منفی آن‌ها جلوگیری شود. تحقیقات و مطالعه کارامانسیون به بررسی این موضوع می‌پردازد که آیا مدل‌های زبان بزرگ می‌توانند به‌طور موثر با این مسئله مقابله کنند.

برای ارزیابی عملکرد مدل‌های زبان بزرگ در شناسایی خبرهای جعلی، کارامانسیون چهار مدل شناخته شده را آزمایش کرد: Chat GPT-3.0 و Chat GPT-4.0 از اوپن ای آی، Bard/LaMDA از گوگل و Bing AI از مایکروسافت. در این مطالعه مجموعه‌ای از 100 خبر واقعی را که از آژانس‌های حقیقت‌سنجی به‌دست‌آمده بود استفاده کردند. پاسخ‌های مدل‌ها به این اخبار در سه دسته درست، نادرست و تا حدی درست/نادرست طبقه‌بندی شدند.

 

OpenAI’s GPT-4.0

جی پی تی 4.0

 

نتایج این مطالعه نشان داد که GPT-4.0 از OpenAI در شناسایی اخبار واقعی و نادرست از مدل‌های دیگر بهتر عمل می‌کند. با این حال، باید توجه کرد که تمامی مدل‌های زبانی بزرگ نسبت به حقیقت‌سنج‌های انسانی عقب افتادند. این نکته مهم، ارزش بی‌نظیر شناخت انسان و ضرورت یکپارچه‌سازی متوازن هوش مصنوعی و مهارت‌های انسانی را برجسته می‌کند.

مطالعه کارامانسیون نگاهی به توانایی فعلی مدل‌های زبانی بزرگ در شناسایی خبرهای جعلی انداخت. این مدل‌ها در تقلید از متن انسانی پیشرفت‌های قابل توجهی داشته‌اند، اما هنوز محدودیت‌هایی در تشخیص دقیق بین اطلاعات واقعی و جعلی دارند. این موضوع نقش بی‌جایگزین حقیقت‌سنج‌های انسانی در مبارزه با انتشار اطلاعات نادرست را تأکید می‌کند.

اگر شما نمی‌دانید که چگونه مدل‌های زبانی بزرگ مانند ChatGPT توسعه داده می‌شوند، باید گفت که آن‌ها با استفاده از حجم عظیمی از داده‌های متنی، آموزش داده می‌شوند. این آموزش مدل‌ها را قادر می‌سازد تا الگوها را یاد بگیرند و بر اساس ورودی داده شده متن تولید کنند. با این حال، توانایی آنها در تشخیص درستی اخبار به کیفیت داده های آموزشی و پیچیدگی کار بستگی دارد.

بیشتر بدانید:
چگونگی عملکرد ChatGPT و نحوه استفاده از آن

مطالعه بیشتر

پژوهشگر کوین مت جان کارامانسیون قصد دارد تا به بررسی پیشرفت قابلیت‌های هوش مصنوعی در شناسایی خبرهای جعلی ادامه دهد. تمرکز او بر روی این است که چگونه می‌توانیم از این پیشرفت‌ها بهره ببریم و توانایی‌های شناختی منحصر به فرد انسان‌ها را نیز تشخیص دهیم. بی‌تردید این پژوهش به درک ما از قابلیت‌های هوش مصنوعی و همکاری همزیستی این تکنولوژی با هوش انسانی کمک خواهد کرد.

در نتیجه، مدل‌های زبان بزرگ مانند ChatGPT توانایی تولید متن شبیه به انسان و انجام وظایف مختلف مربوط به زبان را به نمایش گذاشته‌اند. با این حال، کارایی آن‌ها در شناسایی خبرهای جعلی هنوز در مراحل ابتدایی خود است. مطالعه انجام شده توسط کوین مات کارامانسیون، عملکرد مدل‌های زبانی معروف را در شناسایی اخبار واقعی و نادرست ارزیابی کرد. در حالی که نتایج خوبی را نشان داد، همه مدل‌ها از حقیقت‌سنج‌های انسانی عقب ماندند. این پژوهش ترکیب هوش مصنوعی با هوش انسانی را برجسته می‌کند. در آخر باید توجه داشت که هوش مصنوعی هنوز به مرحله‌ شبیه شدن به انسان نرسیده است.

انتهای پیام/

نظر شما چیست؟