Sztuczna inteligencja potrafi dziś tworzyć obrazy, które na pierwszy rzut oka wyglądają jak prawdziwe fotografie. Coraz trudniej odróżnić autentyczne zdjęcia od grafik wygenerowanych przez algorytmy. Eksperci przekonują jednak, że AI nadal popełnia błędy, które można zauważyć bez specjalistycznego sprzętu.
Nowoczesne generatory obrazów są w stanie odtworzyć nawet niedoskonałości znane z aparatów fotograficznych, takie jak szumy matrycy czy artefakty obiektywu. Dzięki temu fałszywe obrazy bywają bardziej atrakcyjne niż rzeczywistość – mają intensywniejsze kolory i przypominają kadry z wysokobudżetowych filmów.
AI nadal ma problem z geometrią
Specjaliści zajmujący się cyfrową kryminalistyką zwracają uwagę, że sztuczna inteligencja wciąż nie radzi sobie idealnie z zasadami geometrii oraz fizyki.
Jednym z najważniejszych sygnałów ostrzegawczych są linie perspektywy. W prawdziwych fotografiach równoległe linie, na przykład fugi między płytkami lub krawędzie budynków, powinny zbiegać się w jednym punkcie na horyzoncie. AI często generuje obrazy, w których linie rozchodzą się w różnych kierunkach lub tracą logiczną spójność.
Podobne problemy można zauważyć przy odbiciach w lustrach i błyszczących powierzchniach. Linie łączące obiekt z jego odbiciem powinny zachowywać odpowiednią perspektywę, czego sztuczna inteligencja nie zawsze dopilnowuje.
Cienie często zdradzają manipulację
Eksperci analizują także światło i cienie. W rzeczywistości promienie słoneczne docierają do Ziemi niemal równolegle, dlatego cienie rzucane przez różne przedmioty powinny układać się według określonych zasad.
AI potrafi wygenerować realistycznie wyglądające sceny, ale przy dokładniejszym spojrzeniu okazuje się, że cienie padają pod niemożliwymi kątami lub nie zgadzają się z pozycją źródła światła.
To jeden z powodów, dla których analiza oświetlenia pozostaje jedną z najskuteczniejszych metod wykrywania fałszywych obrazów.
Zbyt idealne eksplozje i nienaturalne detale
Problemy pojawiają się również przy dynamicznych scenach. Sztuczna inteligencja ma tendencję do przesadzania z efektami wizualnymi. Eksplozje są często zbyt widowiskowe, pełne nadmiaru ognia i dymu, przez co odbiegają od rzeczywistości.
Eksperci podkreślają, że ludzkie oko często nie wychwytuje tych błędów świadomie, ale przy dokładniejszej analizie można zauważyć elementy, które nie pasują do zasad fizyki.
Trwa wyścig między AI a ekspertami
Specjaliści zajmujący się wykrywaniem deepfake’ów przyznają, że trwa prawdziwy wyścig technologiczny. Powstają coraz lepsze systemy automatycznej analizy obrazów, ale wielu badaczy uważa, że doświadczenie człowieka nadal pozostaje kluczowe.
Celem nie jest całkowite wyeliminowanie fałszywych zdjęć, lecz utrudnienie ich tworzenia i ograniczenie możliwości wykorzystywania ich do szerzenia dezinformacji.
W praktyce oznacza to, że użytkownicy internetu będą musieli coraz częściej zachowywać ostrożność i dokładniej analizować obrazy, które jeszcze niedawno uznaliby za całkowicie autentyczne.