Jak przeciwdziałać halucynacjom i szkodliwym treściom

Jak znaleźć bezpieczny rodzaj sztucznej inteligencji i o czym pamiętać? Najważniejsze jest znalezienie rozwiązania, które pozwoli na identyfikację potencjalnie „groźnych” wyników działania modelu, któremu towarzyszyć będą środki „naprawcze”.

Publikacja: 16.01.2024 02:00

Jak przeciwdziałać halucynacjom i szkodliwym treściom

Foto: Adobe Stock

Halucynacje i szkodliwe treści. Czy da się im przeciwdziałać, korzystając z zewnętrznych modeli? Odpowiedź na to pytanie jest krótka: w pewnym stopniu. No, chyba że zdecydujemy się na poddanie każdego wkładu do modelu manualnym procesom, które w rezultacie pozbawią nas efektywności charakterystycznej dla generatywnej AI. Modele, które są dla nas dostępne zarówno w modelu subskrypcyjnym i osobistym, jak i poprzez API, są modelami niedokładnymi, podatnymi na błędy oraz mogącymi generować treści, które są co najmniej niepożądane („treści wrażliwe” lub „szkodliwe”). Możemy więc uzyskać odpowiedzi, które nie będą prawdziwe, lub otrzymać treść, która godzi w obyczaje lub jest w jakiś sposób dyskryminacyjna. Mamy też „worek” z tymi wynikami działania AI, które z jakichś względów zakłamują rzeczywistość i wykraczają poza zbiór danych wykorzystywanych w procesie trenowania.

Pozostało 89% artykułu

Treść dostępna jest dla naszych prenumeratorów!

Kontynuuj czytanie tego artykułu w ramach e-prenumeraty Rzeczpospolitej. Korzystaj z nieograniczonego dostępu i czytaj swoje ulubione treści w serwisie rp.pl i e-wydaniu.

Konsumenci
Paliwo będzie droższe o 50 groszy na litrze, rachunki za gaz o jedną czwartą
Praca, Emerytury i renty
Krem z filtrem, walizka i autoresponder – co o urlopie powinien wiedzieć pracownik
Podatki
Wykup samochodu z leasingu – skutki w PIT i VAT
Nieruchomości
Jak kwestionować niezgodne z prawem plany inwestycyjne sąsiada? Odpowiadamy
Materiał Promocyjny
Mity i fakty – Samochody elektryczne nie są ekologiczne
Nieruchomości
Wywłaszczenia pod inwestycje infrastrukturalne. Jakie mamy prawa?