وقتی حقیقت در عمق دروغ غرق می گردد!

به گزارش وبلاگ آبی اناری ها، دیپ فیک، نوعی فناوری مبتنی بر هوش مصنوعی است که برای فراوری یا تغییر محتوای ویدئو به کار می رود و می تواند نتیجه ای را ارائه دهد که با حقیقت تفاوت دارد. این فناوری از سال 2017 و با اقدام یک کاربر که از آن برای تغییر چهره افراد مشهور و قرار دادن آنها در فیلم های غیراخلاقی استفاده نموده بود، بر سر زبان ها افتاد.

وقتی حقیقت در عمق دروغ غرق می گردد!

به گزارش وبلاگ آبی اناری ها، با گسترش استفاده از دیپ فیک، متخصصان حوزه فناوری، در خصوص پیغامدهای منفی احتمالی آن هشدار داده و بر لزوم احتیاط در خصوص آن تاکید می نمایند.

ساخت ویدئوهای دیپ فیک

ویدئوهای دیپ فیک، با استفاده از دو سیستم مبتنی بر هوش مصنوعی ساخته می شوند که فراورینماینده(generator) و تفکیک نماینده(discriminator) نام دارند. در فرآیند فراوری ویدئوی دیپ فیک، فراورینماینده، یک ویدئوی غیرواقعی را فراوری می نماید و سپس تفکیک نماینده، واقعی یا غیرواقعی بودن آن را تشخیص می دهد. هر بار که تفکیک نماینده، ویدئویی را غیرواقعی تشخیص دهد، سرنخی به فراورینماینده ارائه می نماید، تا نکات در ساخت ویدئوی بعدی رعایت شوند.

فراورینماینده و تفکیک نماینده به همراه یکدیگر، یک شبکه مخالف مولد(GAN) را شکل می دهند. نخستین گام برای شکل گیری یک شبکه مخالف مولد، شناسایی خروجی مورد نظر و ایجاد یک مجموعه داده آموزشی برای فراوری نماینده است. هنگامی که فراورینماینده بتواند سطح قابل قبولی از خروجی را ایجاد کند، امکان انتقال ویدئوها به تفکیک نماینده فراهم می گردد.

همزمان با افزایش مهارت فراورینماینده در ایجاد ویدئوهای تقلبی، تفکیک نماینده نیز در آنالیز آنها مهارت پیدا می نماید. متقابلا هر قدر تفکیک نماینده در آنالیز مهارت یابد، فراورینماینده نیز در ایجاد ویدئو ماهر می گردد.

تغییر محتوای ویدئوها تا به امروز، کار بسیار سختی بوده است اما از آنجا که ویدئوهای دیپ فیک با یاری هوش مصنوعی فراوری می شوند، به مهارت قابل توجهی که برای فراوری یک ویدئوی واقعی به کار می رود، احتیاجی ندارند.

ابزاری در دست سودجویان

نکته منفی در خصوص ویدئوهای دیپ فیک این است که هر کسی می تواند به فراوری آن بپردازد؛ در نتیجه همواره امکان سوءاستفاده از چنین ویدئوهایی وجود دارد و نمی توان به سادگی به محتوای آنها اعتماد کرد. در واقع، می توان گفت که اگرچه دیپ فیک، یک فناوری کارآمد با ویژگی های مثبت به نظر می رسد اما می تواند پیغامدهای منفی بسیاری را در حوزه های گوناگون از فناوری گرفته تا سیاست به همراه داشته باشد.

اگر دیپ فیک در دست افراد سودجو قرار گیرد، امکان رخ دادن هر پیغامد منفی وجود خوهد داشت. برای مثال، چنین افرادی به سادگی می توانند از این ابزار برای تخریب نام شرکت های بزرگ استفاده نمایند یا در حوزه سیاست، به راحتی می توان دیپ فیک را برای از بین بردن محبوبیت یک شخصیت سیاسی به کار گرفت و تصویری کاملا غیرواقعی از وی به نمایش گذاشت. بدین ترتیب، دیپ فیک به راحتی می تواند یک نام آشنا و مشهور را در حوزه تجارت، فناوری یا سیاست از بین ببرد.

مصاحبه های انجام شده با متخصصان فعال در حوزه فناوری، اهمیت رعایت اخلاقیات را در خصوص پژوهش های هوش مصنوعی نشان می دهند. متخصصان باور دارند که خطرات گوناگون این حوزه از جمله آسیب های امنیتی باید به دقت شناخته شوند و موسسات فعال در حوزه فناوری، نسبت به آموزش نیروها اقدام نمایند تا بتوانند به سادگی از عهده مقابله با خطرات دیپ فیک برآیند.

در هر حال، مقابله با دیپ فیک، کار ساده ای نخواهد بود. اگرچه ابزارهایی برای شناسایی با دیپ فیک ابداع شده و یا در حال ارائه هستند اما دیپ فیک، فناوری قدرتمندی است و مقابله با آن، به یک فرآیند آنالیز طولانی احتیاج دارد.

نگرانی متخصصان در خصوص دیپ فیک، دلایل گوناگونی دارد. ابزار فراوری ویدئو که از کیفیت بالایی نیز برخوردار هستند، بیش از پیش در اختیار جامعه قرار دارند. جوامع کنونی می توانند اطلاعات را به سرعت دریافت و منتقل نمایند اما هیچ کس برای تشخیص ویدئوهای ساخته شده با دیپ فیک آموزش ندیده است. هنگامی که یک متن تغییر یافته را می خوانیم، می توانیم با آنالیز مفهوم، علائم نگارشی و کلمات به تغییر آن پی ببریم اما تشخیص محتوای یک ویدئوی تغییر یافته با دیپ فیک، کار ساده ای نیست.

ویدئوهای دیپ فیک که فراوری آنها در سال 2017 صورت می گرفت، به دانش بالایی در زمینه علوم رایانه، رایانه های بسیار قوی و داده های گسترده احتیاج داشتند اما در حال حاضر، هر کس می تواند با یک رایانه که قدرت کافی برای کار کردن با این فناوری را دارد، به تنظیم ابزار دیپ فیک بپردازد و ویدئوی مورد نظر خود را فراوری کند.

مهم ترین نکته برای تشخیص ویدئوهای دیپ فیک، زمان است. زمان می تواند به کسب مهارت کافی برای تشخیص بهتر ویدئوها یاری کند. همان گونه که فتوشاپ در شروع کار، به این اندازه شناخته شده نبود و کاربرد نداشت، دیپ فیک نیز به مرور زمان، مراحل تکامل را طی خواهد نمود و به همین میزان، درک متخصصان در خصوص این فناوری و نحوه تشخیص ویدئوهای فراوری شده با آن نیز بهبود خواهد یافت.

پروفسور رابرت فوئل(Robert Foehl)، استاد دانشگاه اوهایو گفت: حتی اگر تشخیص ویدئوهای غیر واقعی از ویدئوهای واقعی ممکن گردد، آسیب های آن در زمینه اخلاقی و انسانی به قوت خود باقی خواهند ماند. بزرگترین خطر ویدئوهای فراوری شده با دیپ فیک، این است که کاملا تشخیص ناپذیر هستند؛ در نتیجه جامعه نمی تواند به سادگی به آنها اطمینان کند و تردید افراد جامعه در خصوص آنها از بین نمی رود.

فناوری کارآمد

اگرچه به موارد بسیاری از جنبه های منفی دیپ فیک اشاره شد اما این فناوری، از کاربردهای مثبت هم خالی نیست. یکی از این نمونه های مثبت، ویدئویی بود که دیوید بکام را در حال مطلع کردن مردم درباره بیماری مالاریا و نحوه محافظت در برابر این بیماری نشان می داد. در این ویدئو، از 9 زبان گوناگون استفاده شد تا پیغام مورد نظر، در سطح گسترده تری منتقل گردد. چنین ویدئویی، هم کارایی مفیدی برای جامعه است و هم دستاورد مثبتی برای افراد مشهور حاضر در ویدئو به شمار می رود.

از دیپ فیک می توان برای بهبود سیستم آموزشی نیز استفاده کرد. تصور کنید که دانش آموزان درکلاس فیزیک، انیشتین را در مقابل خود ببینند که نظریه نسبیت را برای آنها شرح می دهد. چنین کاری، به درک بهتر درس، خلاقیت دانش آموزان و نشاط کلاس یاری بزرگی خواهد نمود.

دیپ فیک می تواند در حوزه تجارت و بازار نیز ابزار کارآمدی باشد و برای آموزش کارمندان و حتی یاری به مشتریان به کار رود. شرکت ها و فروشگاه ها می توانند از چهره افراد مشهور برای معرفی محصول خود به مشتریان استفاده نمایند.

در حوزه رسانه نیز می توان از دیپ فیک برای اصلاح ویدئوی مصاحبه ها استفاده کرد. بدین ترتیب، اصحاب رسانه در خصوص بروز اشتباهات احتمالی در مصاحبه ها نگران نخواهند بود و در صورت لزوم می توانند آنها را به سادگی و با سرعت اصلاح نمایند.

دیپ فیک می تواند در پزشکی نیز حضور موثری داشته باشد. بیماران مبتلا به مشکلاتی مانند اسکلروز جانبی آمیلوتروفیک (ALS) که قادر به صحبت کردن نیستند، می توانند ویدئوهایی از خود را در حال صحبت کردن ببینند و امید بیشتری به ادامه درمان پیدا نمایند. افرادی که در اثر بروز مشکلاتی مانند سکته، قدرت سخن گفتن و برقراری ارتباط را از دست داده اند نیز می توانند از مزایای دیپ فیک بهره مند شوند. در هر حال، به کار بردن دیپ فیک در این زمینه باید با رعایت کامل اصول اخلاقی و قانونی صورت بگیرد تا موجب آسیب رسیدن به بیمار نگردد.

دیپ فیک در کمین امنیت سایبری

امنیت سایبری، قطعا یکی از حوزه هایی است که در معرض تهدید دیپ فیک قرار گرفته است. فناوری هوش مصنوعی که در توانایی فعالیت دیپ فیک نقش دارد، به شکل گیری حملات بزرگ سایبری نیز یاری خواهد نمود. شاید یکی از مهم ترین دلایل بروز این خطرات، پیشرفت شبکه های مخالف مولد و کاهش موانع استفاده از هوش مصنوعی باشد.

سازمان ها باید برای پیشگیری از بروز چنین حملاتی، آنالیز های گسترده ای برای محافظت از شبکه ها انجام دهند و جنبه های اخلاقی لازم را ارائه نمایند تا بتوانند از عهده محافظت از اطلاعات مهم و محرمانه برآیند.

مهار خطرات دیپ فیک

خطر اصلی دیپ فیک این است که می تواند به درک نادرست ختم گردد و هر شکلی به خود بگیرد؛ در نتیجه متخصصان این حوزه باید توانایی تشخیص خود را بهبود ببخشند تا بتوانند از خطرات آن در امان بمانند. شرکت ها باید نکاتی که در خصوص آنها و کارمندانشان در اینترنت منتشر می شوند، آنالیز نمایند. شبکه ها و وب سایت ها در حال حاضر، محتوای منتشر شده را کنترل می نمایند؛ در نتیجه شرکت ها می توانند این محتوا را شناسایی، آنالیز و درصورت لزوم حذف نمایند. در هر حال، حتی با این روش هم تشخیص دیپ فیک سخت خواهد بود و روش ساده ای برای تشخیص آن وجود نخواهد داشت. به علاوه، این کار، به تحلیل گرانی احتیاج دارد که محتوا را مورد ارزیابی دقیق قرار دهند.

منبع: خبرگزاری ایسنا

به "وقتی حقیقت در عمق دروغ غرق می گردد!" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "وقتی حقیقت در عمق دروغ غرق می گردد!"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید