Steve Woźniak włączył się w debatę dotyczącą dyskryminacji z powodu płci wywołanej przez algorytm kart kredytowych pochodzący od producenta iPhonów w ramach nowego systemu Apple Card.
Apple w partnerstwie z bankiem Goldman Sachs uruchomił w sierpniu system tytanowych kart kredytowych, aby czerpać dodatkowe korzyści z usług finansowych po latach dużej zależności od sprzedaży aparatów telefonicznych — podał Reuter.
Problem pojawił się w ostatni czwartek 8 listopada, gdy amerykański biznesmen David Heinemeier Hansson poinformował w kilku wpisach na Twitterze, że Apple Card przyznał mu 20-krotnie wyższy limit niż jego żonie.
Czytaj także: Goldman Sachs płaci kobietom w Wielkiej Brytanii o 56 proc. mniej niż ich kolegom
Bank wyjaśnił z kolei, że wnioski składane w Apple Card są rozpatrywane indywidualnie, zależnie od dochodów i wiarygodności kredytowej kandydata, bierze się pod uwagę m.in. dane o historii kredytów i o zadłużeniu. Jest możliwe, że dwaj członkowie rodziny otrzymają znacznie różne decyzje o kredytach — stwierdził bank, ale dodał, że „nie podejmowaliśmy i nie będziemy podejmować decyzji na podstawie takich czynników jak płeć".
Hansson, który jest twórcą aplikacji Ruby on Rails nie podał konkretnej informacji o swych dochodach czy żony, ale napisał, że złożyli wspólną deklarację podatkową, a żona ma lepszy bilans kredytowy.
Dwa dni później, 9 listopada Wozniak przeżył to samo doświadczenie: stwierdził że przyznano mu na karcie kredytowej 10-krotnie większy limit w porównaniu z limitem żony. „Nie mamy odrębnych kont bankowych, kart kredytowych ani żadnych oddzielnych aktywów. Trudno jednak, by człowiek to skorygował, to wielka technologia w 2019 r. "
Nowojorski wydział usług finansowych poinformował o wszczęciu śledztwa dotyczącego praktyk banku Goldman Sachs w zakresie kart kredytowych. „Prawo Nowego Jorku zabrania dyskryminowania chronionych klas jednostek" — napisała w blogu szefowa tego urzędu, Linda Lacewell.
Dotyczy to algorytmu i każdej innej metody ustalania wiarygodności kredytowej w odmiennym traktowaniu na podstawie takich indywidualnych cech jak wiek, rasa, kolor skóry, płeć, poglądy polityczne, orientacja seksualna, narodowość — dodała. „Wiemy, że kwestia dyskryminowania w algorytmowym podejmowaniu decyzji dotyczy takie innych obszarów usług finansowych" — stwierdziła.