Zdaniem Hawkinga nietrudno sobie wyobrazić technologię, która przechytrzyłaby rynki finansowe, wywiodłaby w pole światowych przywódców czy opracowałaby broń, której działania nie bylibyśmy nawet w stanie zrozumieć. Wraz z innymi naukowcami Hawking uważa, że bardzo rozwinięta sztuczna inteligencja może być nie tylko największym dokonaniem w historii ludzkości, ale także... ostatnim. Taki scenariusz może się spełnić, jeśli ludzie się nie nauczą, jak uniknąć zagrożeń.
Sztuczna inteligencja to segment rynku, który w ostatnich latach rozwija się bardzo dynamicznie. Superkomputer IBM Watson wygrywający z ludźmi w teleturnieju „Jeopardy!", samoprowadzące się samochody czy też wirtualne asystentki Google Now, Cortana czy Siri, które znajdziemy w smartfonach, to rozwiązania już funkcjonujące. Jednak według Hawkinga bledną one w porównaniu z tym, czego możemy się spodziewać w nadchodzących dekadach.
Wszystko, co ma do zaoferowania cywilizacja, jest wytworem ludzkiej inteligencji. Nie jesteśmy w stanie przewidzieć, co można osiągnąć, gdy zostanie ona „rozszerzona" przez rozwiązania oparte na inteligencji sztucznej. Hawking twierdzi, że wysoko na liście priorytetów znalazłoby się z pewnością zlikwidowanie chorób, ubóstwa i wojen. Nie powinno więc dziwić, że firmy technologiczne inwestują miliony dolarów w rozwój sztucznej inteligencji.
Astrofizyk ostrzega jednak, że za mało środków przeznacza się na badania poświęcone ewentualnym zagrożeniom. Wielkie korporacje wydają się niezainteresowane tym aspektem i zajmują się nim głównie instytucje non profit, takie jak Machine Intelligence Research Institute czy Future Life Institute. Dlatego Hawking naciska, aby wszyscy się zastanowili, co można zrobić, by zwiększyć szanse na czerpanie korzyści ze sztucznej inteligencji, a jednocześnie uniknąć ryzyka.