مطالب مرتبط:
5 + 1
یارانه ها
مسکن مهر
قیمت جهانی طلا
قیمت روز طلا و ارز
قیمت جهانی نفت
اخبار نرخ ارز
قیمت طلا
قیمت سکه
آب و هوا
بازار کار
افغانستان
تاجیکستان
استانها
ویدئو های ورزشی
طنز و کاریکاتور
بازار آتی سکه
پنجشنبه، 6 تیر 1398 ساعت 09:482019-06-27بين الملل

دیگر به تصاویر هم اعتباری نیست!


اگر تا پیش از این از فتوشاپ برای ایجاد تصاویر جعلی استفاده می کردند که هرگز در واقعیت وجود نداشت، اکنون به لطف پیشرفت فناوری، ویدئوهای جعلی هم به گردونه اضافه شده اند.

- به گزارش ایسنا، دیپ فیک یا جعل عمیق، تکنولوژی خبرساز این روزهاست؛ در حالی که با استفاده از این تکنیک می توان از ترکیب تصویر انسان و با بهره گیری از هوش مصنوعی، ویدئوهای ساختگی ایجاد کرد، این فناوری نگرانی هایی را ایجاد کرده است؛ از این جهت که ممکن است با داشتن تصاویر هر شخص، ویدیوهایی از او ساخته شود که واقعیت ندارد و بتواند برای او دردسر ایجاد کند.

دیپ فیک تصاویر و فیلم های موجود را روی تصاویر یا فیلم های منبع قرار می دهد و می تواند فرد یا افرادی را در حال انجام یک کار در موقعیتی نشان می دهد که هرگز در واقعیت اتفاق نیفتاده است.

این فیلم های تقلبی می تواند فرد را در حال انجام اقدامات نامناسب نشان دهد که هرگز در آن شرکت نکرده است و یا برای تغییر کلمات یا حرکات یک سیاستمدار مورد استفاده قرار گیرد تا به نظر برسد آن فرد چیزی را گفته که هرگز انجام نداده است.

به نظر می رسد این تکنولوژی حدود یک سال می شود که قربانیانی گرفته است.

از بازیگران خارجی که از تصاویر آن ها برای فیلم های نامناسب سوءاستفاده شده تا سیاستمدارانی که در ویدئوهای دیپ فیک حرف هایی زدند که هرگز در


برچسب ها:
آخرین اخبار سرویس:

دیگر به تصاویر هم اعتباری نیست!

دیگر به تصاویر هم اعتباری نیست!