شرکت “فیسبوک” سیستم جدیدی برای تشخیص فناوری “دیپفیک”(Deepfake) یا همان “جعل عمیق” ساخته است تا با استفاده از یک روش مهندسی معکوس بتواند استفاده از این فناوری را در تصاویر مختلف تشخیص دهد.
به گزارش ایسنا و به نقل از آیای، در حالی که ممکن است ما عادت کرده باشیم از فناوری موسوم به “جعل عمیق” برای طیف وسیعی از کارهای نسبتاً بیضرر استفاده شود، اما از این فناوری میتوان برای ایجاد محتوای مخرب نیز مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا آسیب رساندن به حرفه یک سیاستمدار استفاده کرد.
تصاویری که مورد دستکاری “جعل عمیق” قرار میگیرند در واقع فیلمها یا عکسهای تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که میتواند کاملاً واقعی به نظر برسد. این تصاویر به قدری میتوانند مخرب باشند که سال گذشته ایالت کالیفرنیا استفاده از این فناوری را در حوزه سیاست و پورنوگرافی ممنوع کرد.
ما به راحتی با این فناوری فریب میخوریم و آنچه را که در تصاویر میبینیم، باور میکنیم و این فناوری نیز هر روز در حال بهبود یافتن است.
محققان شرکت “فیسبوک” و دانشگاه “میشیگان” برای مقابله با دست به دست شدن و انتشار ویروسی چنین تصاویر تغییر یافتهای، روش جدیدی را برای شناسایی “جعل عمیق” ایجاد کردهاند که میتواند دریابد که از کدام مدل تولیدی برای ایجاد آنها استفاده شده است.
این تیم امیدوار است که این روش، ابزاری برای بررسی بهتر انتشار اطلاعات غلط با استفاده از “جعل عمیق” بوده و همچنین راهی برای گشودن مسیرهای جدید برای تحقیقات آینده در اختیار محققان قرار دهد.
سیستمهای تشخیص “جعل عمیق” از قبل نیز به وجود آمده بودند، اما به دلیل اینکه این سیستمها معمولاً برای شناسایی مدلهای تولیدی خاص آموزش میبینند، به محض اینکه مدل دیگری (مدلی که سیستم برای آن آموزش ندیده است) ظاهر میشود، سیستم نمیتواند بفهمد که این “جعل عمیق” از کجا آمده است.
اما سیستم جدید فیسبوک چگونه کار میکند؟ تیم سازنده تصمیم گرفت یک گام به جلو حرکت کند و سیستم را فراتر از مجموعه محدود مدلهای ارائه شده آموزش دهد و با روش مهندسی معکوس آن را قادر سازد تا هر نوع “جعل عمیق” را شناسایی کند.
“هاسنر” از فیسبوک گفت: روش مهندسی معکوس ما متکی به کشف الگوهای منحصر به فرد پشت مدل هوش مصنوعی است که برای تولید یک تصویر “جعل عمیق” استفاده میشود.
تیم سازنده میگوید” ما با تجزیه مدل میتوانیم خصوصیات مدلهای مولد مورد استفاده برای ایجاد هر “جعل عمیق” را تخمین بزنیم و حتی چندین “جعل عمیق” را به مدلی که احتمالاً آنها را تولید کرده است، مرتبط کنیم. این سیستم اطلاعات مربوط به هر “جعل عمیق” را حتی آن مدلهایی که اطلاعات قبلی درباره آنها وجود نداشته است، ارائه میدهد.
این تیم سیستم خود را با استفاده از یک مجموعه داده تصویری “جعل عمیق” متشکل از ۱۰۰ هزار تصویر مصنوعی که از ۱۰۰ مدل مختلف مولد در دسترس عموم تولید شده است، آموزش داد و نتایج به طور قابل توجهی بهتر از مدلهای تشخیصی قبلی بود.
این نوع از سیستم تشخیص “جعل عمیق” به خصوص برای سازمانهای دولتی، پلیس و رسانههای اجتماعی که به شدت تلاش میکنند این اطلاعات جعلی منتشر نشود، میتواند مفید باشد.
تاکنون هیچ تاریخی در مورد زمان اجرا و در دسترس عموم قرار گرفتن این سیستم به اشتراک گذاشته نشده است، اما محققان در حال کار بر روی چنین روشهایی هستند.