Idealne fałszywe filmy zostaną rozpoznane przez sztuczną inteligencję
Idealne fałszywe filmy zostaną rozpoznane przez sztuczną inteligencję

Wideo: Idealne fałszywe filmy zostaną rozpoznane przez sztuczną inteligencję

Wideo: Idealne fałszywe filmy zostaną rozpoznane przez sztuczną inteligencję
Wideo: Ranking Every Episode of Gumball Ever (Season 4-6) - YouTube 2024, Może
Anonim
Premiera opery o zatruciu Litwinienki rozpoczyna się w Anglii
Premiera opery o zatruciu Litwinienki rozpoczyna się w Anglii

Rok temu Manish Agrawala ze Stanforda pomógł opracować technologię synchronizacji ruchu ust, która pozwalała montażystom wideo niemal niezauważalnie zmieniać słowa mówców. Narzędzie może z łatwością wstawiać słowa, których dana osoba nigdy nie wypowiadała, nawet w środku zdania, lub usuwać słowa, które wypowiedział. Wszystko będzie wyglądało realistycznie gołym okiem, a nawet na wielu systemach komputerowych.

To narzędzie znacznie ułatwiło naprawę błędów bez ponownego nagrywania całych scen, a także dostosowało programy telewizyjne lub filmy do różnych odbiorców w różnych miejscach. Ale ta technologia stworzyła również niepokojące nowe możliwości dla trudnych do znalezienia fałszywych filmów, z wyraźnym zamiarem zniekształcenia prawdy. Na przykład w ostatnim republikańskim filmie użyto bardziej brutalnej techniki podczas wywiadu z Joe Bidenem.

Tego lata Agrawala i współpracownicy ze Stanford i UC Berkeley zaprezentowali oparte na sztucznej inteligencji podejście do technologii synchronizacji ruchu warg. Nowy program dokładnie wykrywa ponad 80 procent podróbek, rozpoznając najmniejsze rozbieżności między dźwiękami ludzi a kształtem ust.

Ale Agrawala, dyrektor Stanford Institute for Media Innovation i profesor informatyki w Forest Baskett, który jest również powiązany ze Stanford Institute for Human-Centered Artificial Intelligence, ostrzega, że nie ma długoterminowego rozwiązania technicznego dla głębokich podróbek.

Jak działają podróbki

Istnieją uzasadnione powody do manipulacji wideo. Na przykład każdy, kto kręci fikcyjny program telewizyjny, film lub reklamę, może zaoszczędzić czas i pieniądze, korzystając z narzędzi cyfrowych do poprawiania błędów lub dostosowywania skryptów.

Problem pojawia się, gdy narzędzia te są celowo wykorzystywane do rozpowszechniania fałszywych informacji. A wiele technik jest niewidocznych dla przeciętnego widza.

Wiele głębokich fałszywych filmów opiera się na zamianie twarzy, dosłownie nakładając twarz jednej osoby na film innej osoby. Ale chociaż narzędzia do zmiany twarzy mogą być atrakcyjne, są stosunkowo prymitywne i zwykle pozostawiają cyfrowe lub wizualne artefakty, które komputer może wykryć.

Z drugiej strony technologie synchronizacji ust są mniej widoczne, a zatem trudniejsze do wykrycia. Manipulują znacznie mniejszą częścią obrazu, a następnie syntetyzują ruchy ust, które dokładnie odpowiadają temu, jak faktycznie poruszałyby się usta osoby, która wypowiadałaby określone słowa. Według Agrawal, mając wystarczającą ilość próbek wizerunku i głosu danej osoby, fałszywy producent może sprawić, że osoba „mówi” cokolwiek.

Wykrywanie podróbek

Zaniepokojony nieetycznym stosowaniem takiej technologii, Agrawala współpracował z Ohadem Freedem, doktorantem ze Stanford, nad opracowaniem narzędzia do wykrywania; Hani Farid, profesor na Uniwersytecie Kalifornijskim, Berkeley School of Information; i Shruti Agarwal, doktorantka w Berkeley.

Początkowo naukowcy eksperymentowali z czysto manualną techniką, w której obserwatorzy badali materiał wideo. Działało dobrze, ale w praktyce było pracochłonne i czasochłonne.

Następnie naukowcy przetestowali sieć neuronową opartą na sztucznej inteligencji, która byłaby znacznie szybsza do przeprowadzenia tej samej analizy po szkoleniu na wideo z byłym prezydentem Barackiem Obamą. Sieć neuronowa wykryła ponad 90 procent synchronizacji ruchu warg Obamy, chociaż dokładność dla innych mówców spadła do około 81 procent.

Prawdziwy test prawdy

Naukowcy twierdzą, że ich podejście jest tylko częścią gry w kotka i myszkę. W miarę poprawy technik głębokiego fałszerstwa pozostawiają jeszcze mniej kluczy.

Ostatecznie, mówi Agrawala, prawdziwym problemem jest nie tyle walka z głęboko fałszywymi filmami, co walka z dezinformacją. W rzeczywistości, zauważa, wiele dezinformacji wynika z wypaczenia znaczenia tego, co ludzie faktycznie powiedzieli.

„Aby ograniczyć dezinformację, musimy poprawić umiejętność korzystania z mediów i opracować systemy odpowiedzialności” – mówi. „Może to oznaczać przepisy zakazujące świadomego wytwarzania dezinformacji i konsekwencji ich naruszenia, a także mechanizmy eliminowania wynikających z tego szkód”.

Zalecana: