Grok ujawnia „wady” w weryfikacji faktów dotyczących wojny Izrael-Iran
Chatbot AI Elona Muska, Grok, udzielał niedokładnych i sprzecznych odpowiedzi, gdy użytkownicy próbowali sprawdzić fakty dotyczące konfliktu Izrael-Iran — wynika z badania opublikowanego we wtorek, które budzi kolejne wątpliwości co do jego niezawodności jako narzędzia do demaskowania dezinformacji.

W miarę jak platformy technologiczne ograniczają wykorzystanie ludzkich weryfikatorów faktów, użytkownicy coraz częściej korzystają z chatbotów opartych na sztucznej inteligencji — w tym Groka stworzonego przez xAI — w poszukiwaniu wiarygodnych informacji. Jednak ich odpowiedzi często same są podatne na dezinformację.
„Badanie działania Groka w pierwszych dniach konfliktu izraelsko-irańskiego ujawnia istotne wady i ograniczenia tego chatbota w dostarczaniu dokładnych, wiarygodnych i spójnych informacji w czasie kryzysu” — czytamy w analizie przygotowanej przez Digital Forensic Research Lab (DFRLab) działającego przy American Atlantic Council.
„Grok miał trudności z weryfikacją już potwierdzonych faktów, analizą fałszywych materiałów wizualnych oraz unikaniem niepopartych twierdzeń.”
DFRLab przeanalizowało około 130 000 postów w różnych językach opublikowanych na platformie X (dawniej Twitter), na której Grok jest zintegrowany, i stwierdziło, że chatbot „nie radzi sobie z autentyfikacją mediów generowanych przez AI”.
Po irańskich atakach odwetowych na Izrael, Grok udzielał skrajnie różnych odpowiedzi na podobne zapytania dotyczące wygenerowanego przez AI wideo przedstawiającego zniszczone lotnisko, które zdobyło miliony wyświetleń. W odpowiedziach Groka można było znaleźć zarówno zaprzeczenia, jak i potwierdzenia, że lotnisko zostało zniszczone przez ataki — czasem w odstępie jednej minuty.
W niektórych odpowiedziach Grok wskazywał, że źródłem zniszczeń był pocisk wystrzelony przez jemeńskich rebeliantów. W innych błędnie identyfikował lotnisko jako znajdujące się w Bejrucie, Gazie lub Teheranie.
W przypadku kolejnego wygenerowanego przez AI filmu, przedstawiającego zawalające się budynki po rzekomym irańskim ataku na Tel Awiw, Grok ocenił materiał jako prawdziwy.
Konflikt izraelsko-irański, który doprowadził do amerykańskich nalotów na irański program nuklearny w miniony weekend, przyczynił się do fali dezinformacji w internecie — w tym filmów generowanych przez AI i obrazów wojennych pochodzących z innych konfliktów.
Chatboty AI również powielały fałszywe informacje.
W miarę eskalacji wojny, w mediach społecznościowych pojawiły się nieprawdziwe doniesienia, że Chiny wysłały wojskowe samoloty transportowe do Teheranu w ramach wsparcia. Gdy użytkownicy zapytali Groka i inne boty, np. Perplexity, o wiarygodność tych informacji, oba błędnie potwierdziły ich prawdziwość — podała organizacja NewsGuard zajmująca się walką z dezinformacją.
Badacze wskazują, że Grok wcześniej popełniał błędy przy weryfikacji faktów w kontekście takich wydarzeń jak konflikt Indie-Pakistan czy protesty antyimigracyjne w Los Angeles.
W zeszłym miesiącu Grok znalazł się pod ostrzałem, gdy w odpowiedziach na niezwiązane pytania umieścił sformułowanie „biały ludobójstwo” w RPA — teorię spiskową skrajnej prawicy. Firma xAI winę zrzuciła na „nieautoryzowaną modyfikację”.
Elon Musk, miliarder pochodzący z RPA, sam wcześniej sugerował, że przywódcy tego kraju „otwarcie nawołują do ludobójstwa białych”.
Musk publicznie skrytykował Groka, gdy chatbot w niektórych odpowiedziach powoływał się na Media Matters — liberalną organizację monitorującą media, z którą Musk prowadzi kilka procesów.
„Wstydź się, Grok,” napisał Musk na X. „Twoje źródła są fatalne.”