فیلم بیشتر »»
کد خبر ۹۲۸۷۵۵
تاریخ انتشار: ۰۵:۰۰ - ۰۳-۱۰-۱۴۰۲
کد ۹۲۸۷۵۵
انتشار: ۰۵:۰۰ - ۰۳-۱۰-۱۴۰۲

هوش مصنوعی می‌تواند موجب تولید و انتشار اخبار جعلی شود

هوش مصنوعی می‌تواند موجب تولید و انتشار اخبار جعلی شود
مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج با تاکید بر اینکه هوش مصنوعی می تواند موجب تولید اخبار جعلی شود، گفت:باید از فیک نیوزها تا جایی بترسیم که به جهان دروغین برسیم.

سید سجاد شریعتی با اشاره به «نسبت هوش مصنوعی با فیک نیوز و تحولی که ایجاد می‌کند»، گفت: هر چیزی که به عنوان جنگ ترکیبی، فیک نیوز، هجوم رسانه‌ای و حتی رسانه و زیست بشری می‌شناسیم، با تحولاتی که در سال‌های آینده در هوش مصنوعی رخ می‌دهد، تغییر می‌کند و متحول می‌شود.

به گزارش مهر، میزان تولید و توزیع خبر دروغ با هوش مصنوعی رشد تصاعدی می‌یابد. بنابراین هرچه کنش ورزی می‌خواهیم، باید در حوزه هوش مصنوعی باشد تا تاثیرگذار شود.

شریعتی با تاکید بر اینکه ابتدا باید هوش مصنوعی را بشناسیم، گفت: هوش مصنوعی در سه نسل تعریف می‌شود. نسل اول هوش مصنوعی، هوش مصنوعی محاسباتی و منطقی است که از دهه ۶۰ آغاز شد. این روند تا ۲۰۱۰ در همین حیطه وجود داشت.

مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج افزود: شکل بعدی هوش مصنوعی از ۲۰۱۰ آغاز شد به خاطر تحول در داده‌ها و اینترنت رخ داد. وقتی کلان‌داده فراهم شد، به نسل جدید منتقل شدیم.

هر چند خیلی چیزها وجود دارد که هنوز لمس نکرده‌ایم. باید تعامل با ماشین را بشناسیم و زبان ماشین را درک کنیم و متوجه شویم چگونه حرف ما را می‌شنود و چگونه سوال کنیم که به ما پاسخ بدهند.

وی نسل سوم هوش مصنوعی را AGI یا هوش مصنوعی عام توصیف کرد و گفت: در سراج به این نوع هوش، هوش مدبر یا عقل فعال می‌گوییم که می‌تواند به صورت انفرادی چیزها را یاد بگیرد، رشد کند، توسعه یابد و در پایان خود هوش را تولید کند.

دکتر شریعتی گفت: شبکه عصبی مصنوعی ماشین‌هایی هستند که مانند مغز انسان یاد می‌گیرند.

مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج با اشاره به مدل زبان‌های بزرگ، گفت: این مدل پردازش زبان‌های طبیعی دارد که بررسی می‌کند چگونه انسان‌ها کلمات را کنار هم قرار می‌دهند.

دکتر شریعتی با اعلام اینکه وقتی هوش مصنوعی روی اکوسیستم می‌نشیند، اتفاق اصلی رخ داده است، گفت: هوش مصنوعی می‌تواند بالای اکوسیستم دیجیتال بنشیند و اپلیکیشن‌های مختلف را ارائه دهد.

وی به تشریح ۴ مسیر اصلی و کاربرد هوش مصنوعی در حوزه فیک‌نیوز پرداخت و گفت: دیپ فیک،اتاق پژواک، اتاق محتوا و دستکاری داده، پایه ۴ مسیر اصلی است. این چهار مسیر اصلی‌ترین مسیرهای مساهمت هوش در حوزه خبر جعلی و اطلاعات غلط است.

هر کدام از این ابزارها می‌توانند به تنهایی موج‌های سایبری و رسانه‌ای را در راستای تولید و انتشار اخبار دروغین ایجاد کنند.

مسئول مرکز تحقیقات و آینده پژوهی سازمان سراج گفت: باید از فیک نیوزها تا جایی بترسیم که به جهان دروغین برسیم و دروغ سراسر روابط انسانی را بگیرد.

وی گفت: برجسته‌ترین عملکرد دیپ فیک‌ها علیه سیاستمداران و فضای سیاسی صورت می‌گیرد. اما بیشتر زمانی خطرناک‌تر می‌شود که به تولید فضای جعل و دروغ در جامعه وارد شود. در این صورت باید بترسیم که کلاهبرداری‌ها اتفاق بیفتد، فیلم بسازند و روابط انسان‌ها را تخریب کنند.

وی با اعلام اینکه برای مقابله با این چالش‌ها، باید به راهکار اندیشید، گفت: ما برای شناسایی و جلوگیری از اخبار جعلی، از ابزارهای هوش مصنوعی استفاده می‌کنیم.

ما می‌توانیم با تحلیل داده‌ها، محتوا، منبع و مخاطب اخبار، میزان صحت و اعتبار آن‌ها را سنجیده و به مخاطبان اطلاع دهیم. ما همچنین می‌توانیم با آموزش و افزایش سواد فضای مجازی، مردم را قادر به تشخیص و انتقاد از اخبار جعلی کنیم.

ارسال به دوستان
پارادوکس تجربه: دانایان هم اشتباه می کنند / پرونده های عجیب نابودی: نوکیا، کداک، چلنجر و ایرفرانس 447 رئیس پارلمان لبنان: مذاکره تحت فشار حملات اسرائیل چه سودی دارد؟ کشف جسد فرد مغروق در رود ارس با تلاش امدادگران در جلفا سی‌ان‌ان: ایران تقریبا همه سایت‌های نظامی آمریکا در خاورمیانه را هدف قرار داده رونمایی بایکار از پهپاد کی2؛ پهپاد انتحاری ترکیه با قابلیت بازگشت به آشیانه! (+فیلم و عکس) نیروی دریایی سپاه: قواعد مدیریت جدید خلیج فارس اعمال خواهد شد پرواز رفت و برگشت رشت- مشهد برقرار شد مدیر مسؤول عصر ایران در سوگ پدر دستگیری عامل تیراندازی مرگبار در عملیات ضربتی پلیس ازنا نتایج نظرسنجی جدید: ۶۱ درصد آمریکایی ها جنگ با ایران را یک اشتباه می دانند ترامپ: برای ادامه جنگ با ایران، اجازه رسمی از کنگره نخواهم گرفت نفتالی بنت: اسرائیل در حال فروپاشی است شهادت ۱۴ عضو سپاه زنجان بر اثر انفجار مهمات عمل‌نکرده رایزنی تلفنی عراقچی و لاوروف پیام رهبر انقلاب اسلامی به مناسبت روز کارگر و روز معلم