Dlaczego warto weryfikować treści stworzone przez narzędzia generatywnej AI?
Generatywna AI, trenowana na danych pochodzących z różnych źródeł (od artykułów naukowych po książki, strony internetowe, fora i media społecznościowe), nie zawsze gwarantuje wysoką jakość wyników. Może utrwalać błędy, wzmacniać szkodliwe stereotypy i uprzedzenia, a nawet generować treści dyskryminujące, co wynika z niereprezentatywności danych, na których była szkolona (ITI, 2024; Heaven, 2023). Halucynacje, czyli nieprawidłowe lub wprowadzające w błąd wyniki generowane przez modele AI, są bezpośrednim efektem sposobu ich działania. Modele językowe opierają się na statystycznym prawdopodobieństwie występowania kolejnych wyrazów, wyliczonym na podstawie danych treningowych. Taki proces znacząco różni się od tradycyjnego wyszukiwania odpowiedzi w rzetelnych źródłach. Jednocześnie, wraz z postępem w rozwoju modeli generatywnej AI, halucynacje stają się coraz trudniejsze do wykrycia, co zmniejsza czujność i zaufanie użytkowników (Heaven, 2024). Dlatego, w kontekście odpowiedzialności środowiska akademickiego za promowane i publikowane materiały, weryfikacja poprawności treści generowanych przez AI jest niezbędna.
Źródła:
Information Technology Industry Council. (2024). Authenticating AI-Generated Content. Exploring Risks, Techniques & Policy Recommendations. link
Heaven, W. D. (2023). These six questions will dictate the future of generative AI. MIT Technology Review. link
Heaven, W. D. (2024). Why does AI hallucinate? MIT Technology Review. link