Nie byłoby w tym może nic nadzwyczajnego, gdyby nie fakt, że Fran jest... robotem (choć humanoidalnym). A w dokumencie stanu cywilnego jako rodziców wpisano uczonych z miejscowego uniwersytetu, którzy ją skonstruowali.
Ta historia nie jest jednak wcale tak zdumiewająca, jeśli przypomnimy sobie, że w połowie ubiegłego roku komisja ds. prawnych Parlamentu Europejskiej zastanawiała się nad stworzeniem statusu „osoby elektronicznej". Rozważano na przykład płacenie przez firmy, które zastępują ludzi robotami, specjalnych składek ubezpieczenia społecznego na rzecz bezrobotnych, którzy w efekcie rozwoju technologicznego tracić będą pracę.
Problem jest jednak znacznie poważniejszy niż tylko kwestie rynku pracy. Autorzy koncepcji „osoby elektronicznej" zastanawiali się np. nad problemem odpowiedzialności cywilnej za działania robotów. Europosłowie zwracali uwagę na to, że produkcja coraz bardziej zaawansowanych robotów może pociągać za sobą poważne problemy etyczne.
Nie trzeba też było długo czekać na potwierdzenie się obaw inicjatorów tego pomysłu. W ostatnim tygodniu naukowcy poinformowali, że mają problem ze sztuczną inteligencją, którą nauczyli prostej gry elektronicznej polegającej na „zbieraniu jabłek". Maszyna szybko bowiem się nauczyła, że lepszą taktyką jest eliminowanie konkurentów (za pomocą strzałów laserem), niż mozolne zbieranie punktów.
To zaś oznacza, że kwestia dotycząca tego, co będzie, jeśli roboty wyposażone w sztuczną inteligencję w rzeczywistości staną się agresywne, przestaje być absurdalna. Powstaje bowiem fundamentalne pytanie etyczne: czy robot może czynić zło?