استفاده روز افزون از تصاویر غیرواقعی در فضای مجازی به بی اعتمادی میان کاربران دامن زده است.

تایمز در ماه مارس از یک زن ۱۸ ساله اوکراینی به نام “لوبا دوونکو” نام برد و در مقاله منتشر شده اش ادعا کرد که این فرد روزنامه‌نگاری خوانده، خیلی مسلط انگلیسی صحبت نمی‌کند و بعد از حمله روسیه شروع به حمل سلاح کرده است. با این حال، موضوع این بود که دوونکو در دنیای واقعی وجود ندارد و خبر کمی پس از انتشار حذف شد.

به گزارش digitaltrends، لوبا دوونکو یک شخصیت آنلاین جعلی بود که برای سرمایه گذاری از علاقه روزافزون به داستان‌های جنگ اوکراین و روسیه در توییتر و به دست آوردن طرفداران طراحی شده بود. این حساب نه تنها قبل از مارس هرگز توییت نکرده بود، بلکه نام کاربری متفاوتی نیز داشت. در عکس پروفایل دوونکو، برخی از تار‌های موی او از بقیه سرش جدا شده بود، چند مژه از دست رفته بود، و مهمتر از همه، چشمانش دقیقا در مرکز صفحه قرار داشت. همه این موارد نشانه‌هایی از یک چهره مصنوعی بودند که توسط یک الگوریتم هوش مصنوعی ایجاد شده بود.

چهره دوونکو توسط فناوری دیپ فیک ساخته شده است، تکنیکی که به هر کسی اجازه می‌دهد چهره‌ای را بر چهره شخص دیگر در یک ویدیو نیز قرار دهد و برای همه چیز از محتوای غیر اخلاقی گرفته تا دستکاری سخنرانی رهبران جهان استفاده می‌شود این فناوری یک مشکل رو به رشد است که مبارزه با اطلاعات نادرست را دشوارتر می‌کند.

ارتشی از چهره‌های جعلی تولید شده توسط هوش مصنوعی

در چند سال گذشته، در حالی که شبکه‌های اجتماعی عکس‌های بی‌چهره و ناشناس را سرکوب می‌کنند، هوش مصنوعی بازیگران و ربات‌های مخرب را با یک سلاح ارزشمند مسلح کرده است و آن توانایی تولید تصاویری شبیه به انسان‌های واقعی است. نکته جالبی که در ارتباط با این تصاویر وجود دارد این است که این تصاویر منحصر به فرد هستند و حتی با بررسی دقیق، اکثر مردم نمی‌توانند تفاوت را تشخیص دهند. دکتر سوفی نایتینگل، استاد روانشناسی در دانشگاه لنکستر بریتانیا، دریافت که افراد فقط ۵۰ درصد شانس دارند که چهره‌های ساخته شده با هوش مصنوعی را ببینند و حتی بسیاری آن‌ها را قابل اعتمادتر از چهره‌های واقعی می‌دانند.

چهره‌های تولید شده توسط هوش مصنوعی در واقع با سرعتی سرسام‌آور اینترنت را تسخیر کرده‌اند. جدا از حساب‌هایی مانند دوونکوکه از شخصیت‌های ترکیبی برای جذب دنبال‌کنندگان استفاده می‌کنند، این فناوری اخیراً کمپین‌های هشداردهنده‌تری را تقویت کرده است. استفاده از این فناوری توسط کشور‌هایی مانند چین در ترویج روایت‌های دولتی مشاهده شده است. در یک بررسی گذرا در توییتر، طولی نکشید که چندین ضد واکسن، طرفدار روسیه پیدا شدند. همه در پشت یک چهره کامپیوتری پنهان شده بودند تا برنامه‌های خود را پیش ببرند و به هر کسی که سر راهشان ایستاده بود حمله کنند. اگرچه توییتر و فیس‌بوک مرتباً چنین کابرانی را حذف می‌کنند، اما چارچوبی برای مقابله با لفرادی که دارای چهره‌ای غیرواقعی هستند، ندارند.

تصاویر جعلی

Sensity، یک شرکت راه حل‌های کلاهبرداری مبتنی بر هوش مصنوعی، تخمین می‌زند که حدود ۰.۲ ٪ تا ۰.۷ ٪ از افراد در شبکه‌های اجتماعی محبوب از عکس‌های تولید شده توسط رایانه استفاده می‌کنند. این به خودی خود چندان زیاد به نظر نمی‌رسد، اما ارقام برای فیس بوک (۲.۹ میلیارد کاربر)، اینستاگرام (۱.۴ میلیارد کاربر) و توییتر (۳۰۰ میلیون کاربر) است. این موضوع این به معنا است که میلیون‌ها ربات و بازیگر به طور بالقوه می‌توانند بخشی از کمپین‌های اطلاعات نادرست باشند. شرکت کروم ارقام Sensity را تأیید می‌کند.

بازار چهره‌های جعلی

بخشی از اینکه چرا عکس‌های تولید شده توسط هوش مصنوعی به سرعت تکثیر شده‌اند این است که دریافت آن‌ها چقدر آسان است. در پلتفرم‌هایی مانند Generated Photos، هر کسی می‌تواند صد‌ها هزار چهره جعلی با وضوح بالا را با چند دلار به دست آورد و افرادی که برای اهدافی نیاز به گروه‌هایی از کاربران دارند مانند کمپین‌های افشاگری شخصی، می‌توانند تصاویر جعلی را از وب‌سایت‌هایی مانند thispersondoesnotexist.com دانلود کنند. این وب‌سایت‌ها زندگی را برای افرادی مانند بنجامین استریک، مدیر تحقیقات مرکز انعطاف‌پذیری اطلاعات بریتانیا، که تیمش هر روز ساعت‌ها را صرف پیگیری و تجزیه و تحلیل محتوای فریبنده آنلاین می‌کند، چالش‌برانگیز کرده است.

سایت تصاویر جعلی

ایوان براون، بنیانگذار Generated Photos، استدلال می‌کند که همه چیز بد نیست. او معتقد است که تصاویر جعلی موارد استفاده مثبت زیادی دارند، مانند ناشناس کردن چهره‌ها در نمای خیابان Google Maps و شبیه‌سازی دنیای واقعی در بازی و این همان چیزی است که این برنامه تبلیغ می‌کند. اگر کسی در کار گمراه کردن افراد باشد، براون می‌گوید امیدوار است که سیستم‌های دفاعی ضد کلاهبرداری پلتفرم او بتوانند فعالیت‌های مضر را شناسایی کنند و در نهایت شبکه‌های اجتماعی بتوانند عکس‌های تولید شده را از عکس‌های معتبر جداکنند.

تایلر ویلیامز، مدیر تحقیقات در Graphika، یک شرکت تحلیل شبکه‌های اجتماعی که برخی از گسترده‌ترین کمپین‌های مرتبط با شخصیت‌های جعلی را کشف کرده است، می‌گوید تا زمانی که یک راهکار درست برای شناسایی تصاویر جعلی وجود نداشته باشد، استفاده از رسانه‌های های اجتماعی ممکن است به کاهش اعتماد مربوط به نهاد‌های عمومی مانند دولت‌ها و روزنامه‌نگار‌ها کمک کند. ویلیامز اضافه می‌کند که یک عنصر حیاتی در مبارزه با سوء استفاده از چنین فناوری‌هایی برنامه درسی سواد رسانه‌ای است که از سنین پایین شروع می‌شود.

چگونه یک چهره تولید شده توسط هوش مصنوعی را تشخیص دهیم؟

هوش مصنوعی

چند راه مطمئن برای تشخیص اینکه آیا یک چهره مصنوعی ساخته شده است وجود دارد. نکته‌ای که در اینجا باید به خاطر داشته باشید این است که این چهره‌ها به سادگی با ترکیب تعداد زیادی عکس به تصویر کشیده می‌شوند؛ بنابراین اگرچه چهره واقعی به نظر می‌رسند، اما سرنخ‌های زیادی را می‌توانید پیدا کنید تا جعلی بودن تصاویر مشخص شود. به طور مثال شکل گوش یا گوشواره ممکن است با هم مطابقت نداشته باشند، رشته‌های مو ممکن است با هم تفاوت داشته باشند و عینک ممکن است عجیب باشد.

رایج‌ترین راه این است که وقتی از چند چهره جعلی عبور می‌کنید، همه چشم‌های آن‌ها دقیقاً در یک موقعیت قرار می‌گیرند در مرکز صفحه این موضوع جعلی بودن تصویر را نشان می‌دهد. باید توجه کرد که مهم‌ترین تهدیدی که عکس‌های تولید شده توسط هوش مصنوعی ایجاد می‌کنند این است که آن‌ها به سود دروغگویی دامن می‌زند و اعتماد کردن را به طور کلی دشوار می‌کنند.

انتهای پیام/

  • منبع خبر : باشگاه خبرنگاران جوان