گوگل در حال آزمایش یک سرویس ترجمه قدرتمند جدید است که ویدیو را به زبانی جدید دوبله می کند و در عین حال لب های گوینده را با کلماتی که هرگز صحبت نکرده است همگام می کند. این می تواند به دلایل زیادی بسیار مفید باشد، اما این شرکت در مورد احتمال سوء استفاده و اقدامات انجام شده برای جلوگیری از آن پیشاپیش بود.
«مترجم جهانی» در Google I/O در طی ارائهای توسط جیمز مانیکا، که سرپرست بخش جدید «فناوری و جامعه» این شرکت است، به نمایش گذاشته شد. این به عنوان نمونهای از چیزی که اخیراً با پیشرفتهای هوش مصنوعی امکانپذیر شد، ارائه شد، اما به طور همزمان خطرات جدی را ارائه میکند که باید از همان ابتدا با آنها در نظر گرفته شود.
سرویس «آزمایشی» یک ویدیوی ورودی می گیرد، در این مورد یک سخنرانی از یک دوره آنلاین که در اصل به زبان انگلیسی ضبط شده است، سخنرانی را رونویسی می کند، آن را ترجمه می کند، گفتار (سبک و لحن منطبق بر آن) را به آن زبان بازسازی می کند، و سپس ویدیو را ویرایش می کند. که لب های بلندگو بیشتر با صدای جدید مطابقت دارد.
بنابراین اساساً یک ژنراتور دیپ فیک است، درست است؟ بله، اما فناوری که در جاهای دیگر برای اهداف مخرب استفاده میشود، کاربردی واقعی دارد. در واقع شرکتهایی وجود دارند که هماکنون در دنیای رسانه این کار را انجام میدهند، و به هر یک از دهها دلیل، خطوط را در پستولید دوبله میکنند. (نمونه نمایشی قابل توجه بود، اما باید گفت که این فناوری هنوز راهی برای رفتن دارد.)
اما این ابزارها ابزارهای حرفه ای هستند که در یک جریان کاری رسانه ای دقیق در دسترس قرار می گیرند، نه یک چک باکس در صفحه آپلود YouTube. Universal Translator هم نیست – هنوز – اما اگر چنین شود، گوگل باید احتمال استفاده از آن برای ایجاد اطلاعات نادرست یا سایر خطرات پیشبینی نشده را در نظر بگیرد.
مانیکا این را “تنش بین جسارت و ایمنی” نامید و ایجاد تعادل می تواند دشوار باشد. اما واضح است که نمیتوان آن را به طور گسترده و بدون محدودیت برای همه منتشر کرد. با این حال، مزایای آن – برای مثال، در دسترس قرار دادن یک دوره آنلاین به 20 زبان بدون زیرنویس یا ضبط مجدد – غیرقابل انکار است.
مانیکا گفت: «این یک گام بزرگ رو به جلو برای یادگیری درک مطلب است، و ما شاهد نتایج امیدوارکنندهای در میزان اتمام دوره هستیم. اما یک تنش ذاتی در اینجا وجود دارد: برخی از همان فناوری های زیربنایی ممکن است توسط بازیگران بد برای ایجاد دیپ فیک مورد سوء استفاده قرار گیرد. بنابراین، ما این سرویس را با نردههای محافظ ساختهایم تا از سوء استفاده جلوگیری کنیم، و آن را فقط برای شرکای مجاز در دسترس قرار میدهیم. به زودی نوآوریهای جدید در واترمارکینگ را در آخرین مدلهای تولیدی خود ادغام خواهیم کرد تا به چالش اطلاعات نادرست نیز کمک کنیم.»
مطمئناً این یک شروع است، اما ما دیدیم که چگونه همان بازیگران بد توانایی بالایی در دور زدن چنین موانعی دارند. «نردههای محافظ» کمی موجدار هستند، و اشتراکگذاری صرفاً با شرکا فقط تا زمانی کار میکند که مدل نشتی نداشته باشد – همانطور که آنها تمایل دارند. البته، واترمارکینگ نیز مسیر خوبی برای پیگیری است، اما تاکنون اکثر رویکردهای مربوط به آن با ویرایشهای بیاهمیت مانند برش، تغییر اندازه و سایر دستکاریهای جزئی در رسانههای واترمارک شکسته شدهاند.
گوگل امروزه بسیاری از قابلیتهای هوش مصنوعی جدید و آشنا را به نمایش گذاشته است، اما اینکه آیا و چگونه آنها هم مفید و هم ایمن خواهند بود، هنوز یک راز است. اما دادن زمان روی صحنه به شخصی مانند Manyika (خود محقق) در بزرگترین رویدادشان برای گفتن “وای، این می تواند بد باشد، بنابراین ما این کار را انجام می دهیم و آن را انجام می دهیم، چه کسی می داند که آیا کار می کند یا نه” حداقل یک روش نسبتاً صادقانه برای نزدیک شدن است. مشکل.