هشدار بازیگر مطرح هالیوود به طرفدارانش/ به تبلیغ بیمه دندانپزشکی اعتماد نکنید

تام هنکس، بازیگر مطرح هالیوود به طرفدارانش هشدار داده که به ویدیوهای تولید شده توسط هوش مصنوعی که بیمه دندانپزشکی را تبلیغ می کنند اعتماد نکنند. در این آگهی آنلاین از نسخه دیجیتالی چهره و صدای این بازیگر برنده اسکار برای تبلیغ بیمه دندانپزشکی استفاده شده است.

به گزارش ریسک نیوز، تام هنکس در یک پست اینستاگرامی به مخاطبان خود گفته است که «برحذر باشید».

«ویدئویی وجود دارد که برخی از طرح های دندانپزشکی را با یک نسخه هوش مصنوعی از من تبلیغ می کند. این ویدئو ارتباطی به من ندارد.»

هنکس پیش از این از منتقدان سرسخت هوش مصنوعی و فناوری دیپ‌ فیک بوده است و طی مصاحبه‌ ای در پادکست طی ماه مه گفته بود که از هم اکنون ۳۲ سال دیگر پادشاهی ما بر سینما ادامه دارد.

او در پادکستی با مجری‌ گری آدام باکستون گفت: «اکنون هر کسی می‌ تواند خود را در هر سنی که باشد، از طریق هوش مصنوعی یا فناوری‌ های دیپ فیک بازسازی کند. فردا ممکن است تصادفی کنم و قضیه تمام شود اما نسخه هایی از من ساخته خواهد شد. خارج از درک این موضوع که این کار توسط هوش مصنوعی یا دیپ فیک انجام شده است، چیزی وجود نخواهد داشت که به شما بگوید این خود واقعی من نیست.»

نمی توان چشم ها را بست: دعوای مشهور ضد هوش مصنوعی

استفاده از هوش مصنوعی و چهره های مشهور بخش مهمی از مذاکرات در اعتصابات جاری هالیوود بوده است.

نگرانی در مورد استفاده از چهره و صدای خود حتی برخی از بازیگران از جمله بازیگر هندی آنیل کاپور را به اقدامات قانونی برانگیخته است.

کاپور که بیشتر به خاطر بازی در فیلم میلیونر زاغه نشین در سال ۲۰۰۸ شناخته می شود، ماه گذشته در یک پرونده قضایی برجسته علیه تصاویر غیرمجاز تولید شده توسط هوش مصنوعی از خودش برنده شد.

اکنون یک دادگاه در دهلی اکنون «سوء استفاده از ویژگی های شخصیتی او را بدون اجازه او به هر شکلی» ممنوع کرده است، به طوری که قاضی پرونده گفت: دادگاه ها «نمی توانند چشم خود را بر چنین سوء استفاده ای ببندند».

این بازیگر ۶۶ ساله پس از کشف محتوای دیپ فیک خود و شخصیت هایش در فضای مجازی شکایت کرد.

او پس از صدور حکم به ورایتی گفت: «این فقط برای من نیست. امروز من آنجا هستم تا از خودم محافظت کنم، اما وقتی زنده نباشم، خانواده باید این حق را داشته باشند که از (شخصیت) من محافظت کنند و در آینده از آن سود ببرند. به دلیل روشی که فناوری و فناوری هوش مصنوعی می‌ تواند مزیت‌ های تجاری ایجاد کند و مورد سوء استفاده قرار گیرد، و همچنین در مواردی که به تصویر، صدا، شکل، GIF و دیپ فیک مربوط می‌شود، می‌توانم فوراً، اقدام کنم. حکم و دستور قضایی صادر شود و باید آن محتوا را حذف کنند.»

در ماه آوریل، یک روزنامه آلمانی به دلیل استفاده از هوش مصنوعی برای ایجاد «اولین مصاحبه» با مایکل شوماخر، مسابقه‌ دهنده سابق فرمول ۱، تهدید به اقدام قانونی شد.

شوماخر در دسامبر ۲۰۱۳ دچار یک آسیب مغزی تقریباً کشنده شد.

این مجله تا پایان مقاله فاش نکرد که نقل قول ها تولید شده بود.

سخنگوی خانواده شوماخر گفت که قصد دارد از این مجله به خاطر این حادثه شکایت کند.

تبلیغات دیپ فیک از افراد مشهور در حال افزایش است

بر اساس تحقیقات روزنامه بریتانیایی Evening Standard، افراد مشهور به طور فزاینده ای هدف مجرمان سایبری قرار گرفته اند که از هوش مصنوعی برای ساخت تبلیغات کلاهبرداری ارزهای دیجیتال استفاده می کنند.

تبلیغات توسط سازندگان آن ها پرداخت می شود تا به نظر برسند که از تأثیر گذاران و سازمان های تأیید شده هستند.

از جمله اهداف محبوب می توان به بیر گریلز ماجراجو، ایان رایت فوتبالیست و شخصیت تلویزیونی سابق و ایلان ماسک رئیس تسلا اشاره کرد.

رایت، بازیکن سابق آرسنال، در ماه ژوئن در شبکه های اجتماعی پستی را منتشر کرد و به هواداران درباره کلاهبرداری هشدار داد.

او در تیک تاک گفت: «مردم فکر می‌کنند من دستگیر شده‌ام. آن ها مرا با دستبند دیده اند. این یک کلاهبرداری است، مردم از شما کلاهبرداری می کنند.»

ویدئوهای جعلی از ماسک که یک «پروژه سرمایه گذاری جدید» را تبلیغ می کند یا ادعا می کند استرالیایی ها «درآمد ۵۷۰۰ دلار در روز دریافت می کنند» نیز در فضای مجازی منتشر شده است.

منبع: www.abc.net.au

اولین نفر امتیاز دهید

دیدگاه شما چیست؟