Pulsar - wyjątkowy portal naukowy. Pulsar - wyjątkowy portal naukowy. Shutterstock
Technologia

Sztuczna inteligencja błędnie cytuje źródła, firmy życzą sobie więcej

Nowa wersja ChatGPT: duża wielkość i cena, duże rozczarowanie
Technologia

Nowa wersja ChatGPT: duża wielkość i cena, duże rozczarowanie

Czy rozwój obecnych modeli sztucznej inteligencji właśnie – mimo wielomiliardowych inwestycji – wyhamował? [Artykuł także do słuchania]

Kim są i co mogą agenci AI. „W przyszłości zapewne każdy będzie miał swojego”
Technologia

Kim są i co mogą agenci AI. „W przyszłości zapewne każdy będzie miał swojego”

Sztuczna inteligencja ma przejmować kontrolę nad komputerami użytkowników oraz działać samodzielnie. Czy to krok za daleko w rozwoju AI? [Artykuł także do słuchania]

Osiem narzędzi AI wyposażonych w funkcję wyszukiwania w czasie rzeczywistym sprawdzili badacze. Wniosek: nie można ufać temu, co znalazły. Być może potrzebują lepszych szkoleń. Tylko czy koniecznie na chronionych prawem danych? [Artykuł także do słuchania]

Przeszukiwanie internetu z pomocą sztucznej inteligencji staje się coraz bardziej popularne, powoli zastępując korzystanie z tradycyjnych narzędzi jak Google czy Bing. Jest to bowiem bardzo wygodne: modele AI analizują cały kontekst pytania użytkownika, „rozumieją” jego intencje i generują naturalnie brzmiące odpowiedzi. Dzięki temu otrzymuje się nie tylko listę linków, ale też zwięzłe podsumowania, które mogą zawierać szczegółowe informacje oraz cytaty ze źródeł. Tylko czy na generatywnych modelach AI można polegać, skoro wykazują one „wrodzoną” tendencję do halucynacji, czyli zmyślania odpowiedzi?

Nawałnica konfabulacji, czyli jak szuka AI

Problemowi temu postanowiło przyjrzeć się amerykańskie Tow Center for Digital Journalism przy Columbia Journalism Review. Badacze sprawdzili osiem narzędzi AI wyposażonych w funkcję wyszukiwania w czasie rzeczywistym (ChatGPT Search, Perplexity, Perplexity Pro, DeepSeek Search, Copilot Search, Grok 2 Search, Grok 3 Search i Gemini). Prosili je o zidentyfikowanie nagłówka, wydawcy, daty publikacji i adresu URL na podstawie fragmentów rzeczywistych artykułów. Wyniki okazały się raczej negatywne: podczas gdy Perplexity podawała błędne informacje w 37 proc. testowanych zapytań, ChatGPT Search nieprawidłowo zidentyfikował aż 67 proc. (134 z 200) artykułów. Najgorzej wypadł Grok 3 z ogromnym wskaźnikiem błędów – na poziomie 94 proc.

Szczególnie niepokojące jest to, że zamiast przyznawać się do niewiedzy, modele często konfabulowały, tworząc wiarygodnie brzmiące, ale całkowicie błędne odpowiedzi. Co ciekawe, płatne wersje premium, takie jak Perplexity Pro (20 USD/miesiąc) i Grok 3 premium (40 USD/miesiąc), radziły sobie w niektórych aspektach jeszcze gorzej, bo choć odpowiadały poprawnie na większą liczbę zapytań niż ich darmowe odpowiedniki, to jednocześnie miały wyższy ogólny wskaźnik błędów ze względu na tendencję do kreowania definitywnych stwierdzeń przy nawet niepewnych danych. Rzadziej używały stwierdzeń, takich jak „wydaje się” czy „prawdopodobnie”, co w połączeniu z autorytatywnym tonem konwersacji utrudniało użytkownikom odróżnienie informacji dokładnych od niedokładnych, tworząc niebezpieczne złudzenie rzetelności.

Innym istotnym problemem okazało się fabrykowanie adresów URL. Ponad połowa cytowań wyszukanych przez Google Gemini i Grok 3 prowadziła użytkowników do zmyślonych lub niedziałających linków.

Sięgnij do źródeł

Badania naukowe: AI Search Has A Citation Problem

Badanie ujawniło również, że niektóre narzędzia AI ignorowały protokół wykluczenia robotów (Robot Exclusion Protocol), który wydawcy stosują, aby zapobiec nieautoryzowanemu dostępowi do swoich treści. Na przykład darmowa wersja Perplexity poprawnie zidentyfikowała wszystkie dziesięć fragmentów z artykułów „National Geographic”, choć były zabezpieczonych paywallem, a wydawca wyraźnie zabraniał dostępu botom.

Sytuacja ta stawia wydawców w trudnej sytuacji. Z jednej strony, jeśli zablokują dostęp systemom AI do swoich treści, ryzykują, że ich artykuły w ogóle nie będą cytowane. Z drugiej strony, jeśli na niego pozwolą, to treści będą używane przez wyszukiwarki AI, ale czytelnicy nie zostaną skierowani na ich strony internetowe, co oznacza brak ruchu i potencjalnych przychodów z reklam.

Gra o szkolenia, czyli czego żądają koncerny

Jak z kolei informował ostatnio amerykański serwis internetowy „The Verge”, na niekorzyść wydawców może zostać rozwiązana kwestia praw autorskich. Koncerny technologiczne zyskały bowiem duże wpływy w nowej amerykańskiej administracji rządowej i zamierzają z nich korzystać. OpenAI i Google wystąpiły mianowicie z propozycjami umożliwienia szkolenia modeli AI na materiałach chronionych prawem autorskim. W swoich dokumentach, złożonych w odpowiedzi na inicjatywę prezydenta Donalda Trumpa rozwoju sztucznej inteligencji „AI Action Plan”, argumentują, że dostęp do takich zasobów jest kluczowy dla utrzymania amerykańskiej przewagi technologicznej.

OpenAI przedstawia tę sprawę wręcz jako „kwestię bezpieczeństwa narodowego”, twierdząc, że chińskie firmy AI mają nieograniczony dostęp do danych. Firma ostrzega, że bez podobnych możliwości „wyścig o AI jest praktycznie przegrany” przez USA, wskazując m.in. na rosnącą pozycję chińskiego modelu DeepSeek. Google z kolei argumentuje, że ochrona praw autorskich może „utrudniać odpowiedni dostęp do danych niezbędnych do trenowania wiodących modeli”.

Sprawa ta może mieć jednak drugie dno: nie tyle związane z wyścigiem technologicznym, ile potencjalnymi poważnymi stratami finansowymi. Firmy AI, w tym OpenAI, zostały pozwane przez wydawców, twórców i inne podmioty za wykorzystywanie materiałów chronionych prawem autorskim bez ich zgody. Wśród skarżących znajdują się m.in. dziennik „The New York Times” oraz twórcy, tacy jak George R.R. Martin, autor słynnej „Gry o tron” (saga „Pieśń lodu i ognia”).

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną