از هر 3 نفر که از جعلیات عمیق آگاه هستند ، می گویند که آنها سهوا آنها را در شبکه های اجتماعی به اشتراک گذاشته اند – ScienceDaily

[ad_1]

مطالعه ای توسط دانشگاه فنی Nanyang ، سنگاپور (NTU سنگاپور) نشان داد که برخی از سنگاپوری ها گزارش دادند که اگرچه از وجود “عمیق جعلی” آگاه بودند ، اما آنها معتقد بودند که آنها محتوای عمیق جعلی را در رسانه های اجتماعی منتشر کرده اند ، که بعدا متوجه شد که این کلاهبرداری است.

Deepfakes ، نمونه کارهای “یادگیری عمیق” و “جعلی” ، فیلم های جعلی فوق واقع گرایانه ای هستند که با استفاده از نرم افزار هوش مصنوعی (AI) ساخته شده اند و به تصویر کشیدن افرادی که کارهایی را انجام داده اند که هرگز انجام نداده اند – نه فقط کاهش سرعت یا آنها صدای صدا را تغییر می دهند ، اما همچنین باعث می شوند که آنها به نظر می رسد که آنها چیزهایی را می گویند که قبلاً هرگز نگفته اند.

در یک نظرسنجی از 1231 سنگاپوری به سرپرستی دستیار NTU در سنگاپور سیف الدین احمد ، 54 درصد از پاسخ دهندگان اظهار داشتند که از جعل های عمیق آگاه هستند ، از هر سه نفر یک نفر گفت که آنها محتوای خود را در شبکه های اجتماعی به اشتراک می گذارند ، که بعداً جعلی دانستند. جعل

این مطالعه همچنین نشان داد که بیش از هر پنج نفر از کسانی که با deepfakes آشنا هستند گفتند که به طور مرتب با deepfakes بصورت آنلاین روبرو می شوند.

یافته های این مطالعه در ژورنال گزارش شده است از راه دور و انفورماتیک در ماه اکتبر به دلیل افزایش تعداد فیلم های عمیق شناسایی شده بصورت آنلاین ، می آیند. در شش ماه منتهی به ژوئن سال 2020 ، شرکتی Sensity که فناوری تقلبی عمیق را تشخیص می دهد ، تخمین می زند که تعداد فیلم های شناسایی شده با جعل عمیق بصورت آنلاین دو برابر شده و به 49،081 رسیده است.

جعلی عمیق که به صورت ویروسی در آمده است شامل باراک اوباما ، رئیس جمهور پیشین ، استفاده از توصیف شیوا درباره رئیس جمهور دونالد ترامپ در سال 2018 ، و دیگری در سال آخر بنیانگذار فیس بوک ، مارک زاکربرگ ، که ادعا می کند به لطف سرقت ، آینده را کنترل می کند. داده ها.

دستیار سیف الدین از دانشکده ارتباطات و اطلاعات NTU وی کیم وی گفت: “اخبار جعلی به اطلاعات جعلی اشاره دارد که تحت عنوان اخبار معتبر برای گمراه کردن مردم منتشر می شود و جعل عمیق شکل جدید ، موذیانه تر است اخبار جعلی کشورها ، ما در حال حاضر شاهد هستیم که چگونه می توان از چنین جعل های جعلی برای ایجاد پورنوگرافی بدون رضایت ، تحریک ترس و خشونت و تأثیر بر بی اعتمادی مدنی استفاده کرد. از آنجا که فناوری هوش مصنوعی در پس ایجاد جعلیات جعلی ، یک ساخت چالش برانگیزتر خواهد بود. “

“از آنجا که شرکت های فناوری مانند فیس بوک ، توییتر و گوگل آنچه را که آنها به عنوان محتوای آنلاین دستکاری شده معرفی کرده اند ، به عنوان تقلبی عمیق برچسب گذاری می کنند ، تلاش بیشتری برای آموزش شهروندان برای انکار موثر چنین محتوایی انجام خواهد شد.”

آمریکایی ها بیشتر از سنگاپوری ها می توانند داستان های رو در رو به اشتراک بگذارند

این مطالعه یافته های درک مردم سنگاپور از تقلب عمیق در برابر چنین جمعیتی و تعداد پاسخ دهندگان در ایالات متحده را مقایسه می کند.

پاسخ دهندگان در ایالات متحده بیشتر از تقلبی های تقلبی آگاهی داشتند (61٪ در ایالات متحده در مقابل 54٪ در SG). آنها گفتند که آنها بیشتر نگران هستند و اغلب در معرض جعل های عمیق قرار می گیرند. تعداد بیشتری از افراد گزارش می کنند که به اشتراک گذاشتن محتوایی که بعداً در آمریکا جعل کرده اند نسبت به سنگاپور (39٪ در ایالات متحده در مقابل 33٪ در SG).

سیف الدین گفت: “این اختلافات با توجه به اهمیت گسترده تر و بحث عمومی در مورد جعل عمیق در ایالات متحده تعجب آور نیست. افزایش اخیر تعداد جعل های تقلبی ، از جمله دونالد ترامپ ، رئیس جمهور آمریکا ، نگرانی های مخرب را ایجاد کرده است پتانسیل این شکل از اطلاعات غلط.

“از طرف دیگر ، سنگاپور شاهد تأثیر مستقیم جعل و تقلب عمیق نبوده و دولت برای جلوگیری از تهدیدات ناشی از اطلاعات غیرمجاز ، از جمله جعل عمیق ، قانون” جعل و تقلب و دستکاری آنلاین “(POFMA) را وضع کرده است.

وی با استناد به مطالعه ای که توسط آژانس تحقیقات بازار جهانی مستقل ایپسوس در سال 2018 انجام شد ، افزود: حداقل از هر پنج عنوان جعلی ، یكی از آنها اصیل شناخته شده است.

پروفسور سیف الدین ، ​​تحقیقات وی ، گفت: “قانون دولت برای جلوگیری از تهدید فراگیر اطلاعات نادرست نیز مفید بوده است ، اما ما باید به پیشرفت سواد رسانه های دیجیتال ادامه دهیم ، به ویژه برای کسانی که توانایی تشخیص واقعیت از اطلاعات غلط را ندارند.” منافع شامل رسانه های اجتماعی و افکار عمومی است.

مطالعه NTU درباره جعل و تقلب عمیق توسط دانشگاه و وزارت آموزش و پرورش سنگاپور تأمین شد و یافته ها بخشی از یک مطالعه طولانی مدت است که اعتماد شهروندان به فناوری AI را بررسی می کند.

[ad_2]

منبع: unbox-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>