Facebook uratuje samobójców?

Facebook zaczął stosować sztuczną inteligencję do wykrywania osób zamierzających targnąć się na własne życie – poinformowała agencja prasowa Reuters.

Aktualizacja: 05.03.2017 10:50 Publikacja: 05.03.2017 10:33

Facebook uratuje samobójców?

Foto: Bloomberg

Opracowany przez portal społecznościowy algorytm wychwytuje sygnały ostrzegawcze, analizując wysyłane przez użytkowników posty oraz komentarze ich przyjaciół. Takim sygnałem może być na przykład wspominanie o bólu lub smutku, albo komentarze przyjaciół w rodzaju „Dobrze się czujesz?" czy „Martwię się o Ciebie".

Po potwierdzeniu przez zespół pracujących dla Facebooka ludzi, że zagrożenie wydaje się być realne, firma kontaktuje się z potencjalnymi samobójcami, sugerując sposoby, w jaki mogliby szukać pomocy. W przyszłości ma być możliwe łączenie się zagrożonych osób z organizacjami zajmującymi się zdrowiem psychicznym za pomocą komunikatora Messenger.

Jak twierdzi Marc Zuckerberg, twórca najpopularniejszego portalu społecznościowego, podobną metodę można by zastosować w celu identyfikowania terrorystów.

Nieprzewidywalne zachowania młodych ludzi

Często przydarza nam się zetknąć z tak dziwnymi zachowaniami ludzkimi, że bezradnie mawiamy - tego ludzki rozum wyjaśnić nie potrafi. Szczególnie często mawiamy tak w przypadku zachowań nastolatków czy młodzieży. 22 stycznia tego roku, 14-letnia Naika Venant z Miami w USA wykorzystała swój telefon, by rozpocząć transmisję na Facebooku. Podczas, gdy internauci ją obserwowali, zdecydowała się popełnić samobójstwo. To zdarzenie ostatecznie spowodowało, iż Facebook wprowadza właśnie rozwiązania, mające zapobiec podobnym zdarzeniom.

Samobójcza śmierć nastoletniej Naiki nie była jednostkowym przypadkiem. Od trzech lat, kiedy na FB wprowadzono możliwość publikowania relacji na żywo, na żywo można było zobaczyć sporą liczbę samobójstw i innych śmierci, np. strzelaninę w Philando Castile.

Wydawałoby się, logicznie rzecz ujmując, że najskuteczniejszym sposobem ratowania życia internetowym samobójcom, byłoby automatyczne przerywanie transmisji. Nic bardziej mylnego. Po naradzie z ekspertami w dziedzinie zdrowia psychicznego w Facebooku zdali sobie sprawę, że automatyczne wyłączanie od razu budzących obawy transmisji, ograniczy możliwość tego, by osoba, która może popełnić samobójstwo, otrzymała jakiekolwiek wsparcie od innych ludzi.

Jennifer Guadagno, szefowa działu badań Facebooka związanych z zapobieganiem samobójstwom, tłumaczy, że najważniejszy jest kontekst sytuacji. A znają go zwykle bardzo dobrze rodzina i znajomi osoby, próbującej targnąć się na swoje życie.

W związku z tym nowe rozwiązanie zakłada, że gdy któraś z transmisji zostanie zgłoszona jako potencjalnie pokazująca samobójstwo, pracownik zespołu wsparcia najpierw sam obejrzy tę relację. Potem zdecyduje, czy należy powiadomić władze, i czy film powinien być całkowicie usunięty z serwisu.

Opracowany przez portal społecznościowy algorytm wychwytuje sygnały ostrzegawcze, analizując wysyłane przez użytkowników posty oraz komentarze ich przyjaciół. Takim sygnałem może być na przykład wspominanie o bólu lub smutku, albo komentarze przyjaciół w rodzaju „Dobrze się czujesz?" czy „Martwię się o Ciebie".

Po potwierdzeniu przez zespół pracujących dla Facebooka ludzi, że zagrożenie wydaje się być realne, firma kontaktuje się z potencjalnymi samobójcami, sugerując sposoby, w jaki mogliby szukać pomocy. W przyszłości ma być możliwe łączenie się zagrożonych osób z organizacjami zajmującymi się zdrowiem psychicznym za pomocą komunikatora Messenger.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Media
Nowy „Plus Minus”: 20 lat Polski w UE. Dobrze wyszło (tylko teraz nie wychodźmy!)
Media
Unia Europejska i USA celują w TikToka. Chiński gigant uzależnia użytkowników
Media
Wybory samorządowe na celowniku AI. Polska znalazła się na czarnej liście
Media
Telewizje zarobią na streamingu. Platformy wchodzą na rynek reklamy
Media
Koniec ekspansji platform streamingowych? Netflix ukryje dane