Jak firmy reagują na wzrost popularności treści generowanych przez sztuczną inteligencję?
Z powodu tych problemów duże firmy technologiczne pracują nad sposobami poprawy autentyczności i pochodzenia mediów. W ramach corocznej konferencji Build Microsoft ogłosił, że jego narzędzia Bing Image Creator i Designer będą teraz miały nowe funkcje sprawdzania pochodzenia mediów.
Użytkownicy będą mogli sprawdzić, czy zdjęcia lub filmy zostały wykonane przez sztuczną inteligencję przy użyciu metod kryptograficznych, które zawierają informacje o tym, skąd pochodzą treści.
Jednak aby ten system działał, różne platformy muszą zgodzić się na specyfikację Coalition for Content Provenance and Authenticity(C2PA).
Podobnie Meta wydała narzędzie o nazwie Meta Video Seal, które może dodawać niewidoczne znaki wodne do klipów wideo stworzonych przez sztuczną inteligencję. To narzędzie typu open source ma bezproblemowo współpracować z istniejącym oprogramowaniem, ułatwiając znajdowanie treści stworzonych przez sztuczną inteligencję. Video Seal obiecuje być odporny na typowe zmiany, takie jak rozmycie i przycinanie, w przeciwieństwie do starszych technologii znaków wodnych, które miały problemy z kompresją wideo i manipulacją.
Problemy i ograniczenia
Nawet przy tych ulepszeniach nadal istnieją problemy z zachęceniem wielu osób do korzystania z tych technologii. Wielu deweloperów może wahać się przed przejściem z istniejących zastrzeżonych rozwiązań na opcje open-source, takie jak Video Seal.
Meta planuje zorganizować warsztaty na głównych konferencjach poświęconych sztucznej inteligencji i stworzyć publiczną tabelę wyników, która porównuje różne metody znakowania wodnego, aby zachęcić więcej osób do współpracy.
Ponadto metody znakowania wodnego, które mamy obecnie, nie zawsze są wystarczająco silne lub skuteczne, jeśli chodzi o treści wideo.
Dwa główne podejścia do walki z treściami generowanymi przez sztuczną inteligencję
W walce z treściami generowanymi przez sztuczną inteligencję pojawiły się dwie różne strategie:
- Znak wodny (podejście prewencyjne):
- Działa poprzez dodawanie niewidocznych podpisów do treści w momencie ich tworzenia.
- Działa jak cyfrowy certyfikat pokazujący „to zostało stworzone przez AI”.
- Narzędzia takie jak Meta Video Seal i funkcje sprawdzania pochodzenia firmy Microsoft reprezentują to podejście.
- Główną zaletą jest natychmiastowa identyfikacja treści AI
- Narzędzia do wykrywania (podejście analityczne):
- Analizuje istniejące treści w celu ustalenia, czy zostały one wygenerowane przez sztuczną inteligencję.
- Szuka wzorców i cech typowych dla treści tworzonych przez sztuczną inteligencję.
- Szczególnie przydatne w przypadku treści, które nie zostały oznaczone podczas tworzenia.
- Narzędzia te stanowią naszą drugą linię obrony
Oba podejścia są niezbędne, ponieważ wzajemnie się uzupełniają: znak wodny zapobiega nadużyciom, a narzędzia do wykrywania pomagają zidentyfikować nieoznakowane treści.
Narzędzia i technologie wykrywania
Treści generowane przez sztuczną inteligencję można znaleźć na więcej sposobów niż tylko technologie znaków wodnych. Nowe narzędzia do wykrywania wykorzystują złożone algorytmy do analizy zarówno treści tekstowych, jak i graficznych.
- Oryginalność, algorytmy głębokiego uczenia są wykorzystywane przez sztuczną inteligencję do znajdowania wzorców w tekście wygenerowanym przez sztuczną inteligencję.
- GPTZero przygląda się strukturom językowym i częstotliwościom słów, aby odróżnić treści napisane przez ludzi od treści stworzonych przez maszyny.
- CopyLeaks wykorzystuje N-gramy i porównania składni, aby znaleźć niewielkie zmiany w języku, które mogą być oznakami autorstwa sztucznej inteligencji.
Narzędzia te mają zapewnić użytkownikom dokładne opinie na temat tego, jak prawdziwe są treści, ale ich skuteczność może się znacznie różnić.
Podsumowując
Wraz z rozwojem generatywnej sztucznej inteligencji, ochrona cyfrowej autentyczności staje się coraz ważniejsza. Microsoft i Meta są liderami w zakresie przełomowych standardów autentyczności treści i weryfikacji pochodzenia mediów.
Aby skutecznie walczyć z deepfake’ami, potrzebujemy zarówno przyjęcia tych narzędzi w całej branży, jak i ściślejszej współpracy między firmami technologicznymi. Przyszła integralność treści cyfrowych zależy od tego, czy technologie wykrywania będą ewoluować szybciej niż oszustwa generowane przez sztuczną inteligencję.
Niedawno pisaliśmy o tym, jak YouTube podejmuje podobne kroki, wprowadzając nowe narzędzia wykrywania AI dla twórców i marek. Ich podejście obejmuje syntetyczną identyfikację głosu i technologie wykrywania twarzy generowane przez sztuczną inteligencję, co dodatkowo pokazuje, w jaki sposób główne platformy pracują nad ochroną autentyczności treści w erze sztucznej inteligencji.