چگونه می توان جامعه و علم را از جعل عمیق نجات داد؟فیلم ها و تصاویر فریبنده ایجاد شده توسط هوش مصنوعی می تواند انتخابات را تحت تاثیر قرار دهد، باعث سقوط بازارهای سهام شود و شهرت افراد را نابود کند و محققان در حال توسعه روش هایی برای محدود کردن آسیب آن هستند. - به گزارش ایسنا و به نقل از نیچر، ماه ژوئن سال جاری، در نبرد سیاسی منتهی به انتخابات مقدماتی ریاست جمهوری آمریکا در سال 2024، مجموعه ای از تصاویر منتشر شد که نشان می داد دونالد ترامپ یکی از مشاوران پزشکی سابق خود، آنتونی فائوچی را در آغوش گرفته است. فائوچی، یک مقام بهداشتی بود که توسط برخی محافظه کاران آمریکایی به دلیل ترویج ماسک و واکسن در طول همه گیری کووید-19 مورد انتقاد قرار گرفته بود. هانی فرید(Hany Farid)، دانشمند رایانه در دانشگاه کالیفرنیا، برکلی و یکی از بسیاری از متخصصانی که تصاویر را بررسی کردند، می گوید: معلوم بود که آنها تقلبی بودند. با بررسی دقیق سه تا از عکس ها، موهای ترامپ به طرز عجیبی تار شده، متن در پس زمینه بی معناست، بازوها و دست ها به طور غیرطبیعی قرار گرفته اند و جزییات گوش قابل مشاهده ترامپ درست نیست. همه نشانه های بارز هوش مصنوعی مولد(AI) هستند که به آن هوش مصنوعی ساختگی نیز گفته می شود. چنین تصاویر و ویدیوهای جعل عمیقی که توسط تولیدکنندگان متن به تصویر با استفاده از هوش مصنوعی آموزش عمیق ساخته شده، در برچسب ها: |
آخرین اخبار سرویس: |