Microsoft proponuje rozwiązanie mające na celu zatrzymanie rozpowszechniania deepfake'ów w internecie
Microsoft wprowadza nowy zestaw standardów do weryfikacji autentyczności treści online
Microsoft ogłosiła stworzenie „standardów technicznych” do oceny rzeczywistości materiałów pojawiających się w sieci. Celem jest pomoc deweloperom AI i platformom społecznościowym w określeniu, czy obrazy lub filmy zostały zmodyfikowane narzędziami cyfrowymi (np. deepfake) oraz jak wiarygodne są metody ich dokumentacji.
Jak działa system weryfikacji
* Przykład z obrazem Rembrandta
- Tworzy się szczegółowy log pochodzenia: miejsca przechowywania, poprzedni właściciele.
- Obraz jest skanowany, a z pociągnięć pędzla generowana jest matematyczna podpis – „cyfrowy odcisk palca”.
- Przy wystawieniu w muzeum odwiedzający może otworzyć te dane i potwierdzić oryginalność.
* Metody już stosowane
Microsoft zbadała 60 kombinacji istniejących technik (usuwanie metadanych, drobne zmiany, celowa manipulacja). Dla każdego modelu zsymulowano zachowanie w różnych scenariuszach.
Badacze stwierdzili:
- Niezawodne połączenia – można je pokazać szerokiej publiczności.
- Nieprawdziwe kombinacje – mogą jedynie skomplikować sytuację, tworząc więcej zamieszania.
Dlaczego to ważne
* Przepisy wymagają przejrzystości AI (np. „Ustawa o przejrzystości AI” w Kalifornii).
* Microsoft jeszcze nie ogłosiła, czy zastosuje te standardy na swoich usługach: Copilot, Azure, OpenAI i LinkedIn.
Standardy nie definiują prawdziwości treści; pokazują jedynie, czy materiał był poddany manipulacji i skąd pochodzi. Jeśli branża je przyjmie, tworzenie oszukańczego kontentu stanie się znacznie trudniejsze.
Stan przemysłu
FirmaAkcjaStatusMicrosoftC2PA (2021) – śledzenie pochodzeniaRozwój nowych narzędziGoogleWodoodporne znaki wodne dla treści generowanych przez AI (od 2023)Aktywnie wdrażane
Jednak pełny zestaw narzędzi od Microsoft może pozostać jedynie „projektem”, jeśli uczestnicy rynku uznają go za zagrożenie dla swoich modeli biznesowych.
Skuteczność istniejących rozwiązań
* Badanie wykazało, że tylko 30 % publikacji na Instagramie, LinkedIn, Pinterest, TikToku i YouTubie jest poprawnie oznaczonych jako stworzone przez AI.
* Szybkie wdrażanie narzędzi weryfikacyjnych jest ryzykowne: awarie mogą podważyć zaufanie użytkowników.
Kompleksowe mechanizmy weryfikacji są preferowane. Na przykład, jeśli na wiarygodnym obrazie wykonano niewielką edycję AI, platforma może błędnie zaklasyfikować go jako całkowicie wygenerowany. Podejście zintegrowane zmniejsza prawdopodobieństwo fałszywych wyników.
Wniosek
Microsoft proponuje strukturalny zestaw standardów do wykrywania cyfrowej manipulacji treścią. Narzędzia te mają zwiększyć przejrzystość i zaufanie do materiałów online, ale ich sukces zależy od przyjęcia branży i niezawodności zintegrowanych weryfikacji.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować