„Moralna AI”: Sztuczna odpowiedzialność

Naukowcy zastanawiają się, jak rozwijać AI, by zminimalizować szkody moralne.

Publikacja: 25.04.2025 16:40

„Moralna AI”, Walter Sinnott-Armstrong, Vincent Conitzer, Jana Schaich Borg, przeł. Ewa Łokas, Bogum

„Moralna AI”, Walter Sinnott-Armstrong, Vincent Conitzer, Jana Schaich Borg, przeł. Ewa Łokas, Bogumił Bienioik, wyd. Prószyński

Foto: mat.pras.

Autorami książki są analityczka danych, filozof oraz informatyk specjalizujący się w teorii gier. Ta trójka szuka sposobów, jak odpowiedzialnie korzystać ze sztucznej inteligencji. Atutem książki jest uporządkowanie informacji, od definicji AI po jej odmiany, np. AGI (artificial general intelligence), czyli system, który co najmniej dorównuje ludzkiej inteligencji pod względem zdolności poznawczych. AGI na razie jednak nie istnieje. Nawet zaawansowane chatboty, sprawne językowo, wciąż nie potrafią np. prowadzić samochodu. Eksperci prognozują, że AGI będzie działać jeszcze za naszego życia.

Tylko 99 zł za rok.
Czytaj o tym, co dla Ciebie ważne.

Sprawdzaj z nami, jak zmienia się świat i co dzieje się w kraju. Wydarzenia, społeczeństwo, ekonomia, historia i psychologia w jednym miejscu.
Plus Minus
Posłuchaj „Plus Minus”: Kiedyś to byli prezydenci
Plus Minus
„Historia miłosna”: Konserwatysta na lekcjach empatii
Plus Minus
„Polska na prochach”: Siatki pełne recept i leków
Plus Minus
„Ale wtopa”: Test na przyjaźnie
Plus Minus
„Thunderbolts*”: Antybohaterowie z przypadku
Materiał Promocyjny
Między elastycznością a bezpieczeństwem