Eng Lim Goh, Hewlett Packard Enterprise: Próg wejścia w AI został obniżony

Europa umacnia pozycję wśród światowych innowatorów wysokowydajnych obliczeń – podkreśla Eng Lim Goh, wiceprezes Hewlett Packard Enterprise, światowej sławy ekspert w dziedzinie sztucznej inteligencji.

Publikacja: 14.12.2023 03:00

Eng Lim Goh, wiceprezes Hewlett Packard Enterprise

Eng Lim Goh, wiceprezes Hewlett Packard Enterprise

Foto: mat. pras.

Od lat bada pan technologie sztucznej inteligencji. Czy postęp w tej dziedzinie poszedł na tyle daleko, że już w tej chwili możemy powiedzieć, że systemy AI są potężniejsze niż człowiek?

Początki naszych prac nad rozwiązaniami, które obecnie wykorzystujemy w technologiach z obszaru AI, były niemal 30 lat temu, kiedy opracowaliśmy aplikację do eksploracji danych o nazwie MineSet. Trafiła ona na rynek już w 1996 r. Wszyscy byliśmy świadkami ogromnego wzrostu zainteresowania AI wraz z pojawieniem się rok temu ChatGPT. Jednakże technologie leżące u jego podstaw były rozwijane od dawna – to m.in. model uczenia maszynowego Transformer sprzed kilku lat, ale też sieci neuronowe sprzed dziesięcioleci.

Odpowiadając na pytanie: to dane stanowią źródło, dzięki któremu uczenie maszynowe staje się sztuczną inteligencją. Potencjał AI zależy teraz głównie od jakości danych, którymi jest zasilana i umiejętności człowieka, który ją obsługuje.

Na ile, poza wspomnianą jakością w uczeniu AI, wyzwaniem jest kwestia pogodzenia ochrony danych czy praw autorskich.

Unijne rozporządzenie ws. AI w wersji z grudnia br. zawiera postanowienia dotyczące tych kwestii, w szczególności w obszarze generatywnej AI. Ten problem to także jedna z przyczyn, dla których HPE postanowiło kupić start-up Pachyderm. Jedną z głównych korzyści, jakie oferuje stworzone przez niego rozwiązanie do automatyzacji powtarzalnych potoków uczenia maszynowego, jest bowiem możliwość śledzenia danych wykorzystywanych do trenowania modeli AI.

Uczestnicy niedawnego szczytu w Bletchley Park zgodzili się, że rozwój AI należy ściśle kontrolować. Czy nie ma obaw, że nadmierna regulacja i nadzór zahamują tę technologię?

Organy prawodawcze w pierwszej kolejności przygotowują opinie, porozumienia i rekomendacje, dopiero niektóre spośród nich prowadzą do regulacji. Jeśli mówimy o nakładaniu ograniczeń, powinny one opierać się na analizie ryzyka w całym cyklu rozwoju i wdrażania rozwiązań AI. Np. nasze prace w HPE nad rozwiązaniami z obszaru sztucznej inteligencji prowadzone są w zgodzie z pięcioma zasadami etycznymi.

Jakimi?

To potrzeba zapewnienia prywatności i bezpieczeństwa, skupienie się na człowieku i jego potrzebach, inkluzywność, a także odpowiedzialność oraz „solidność” wykonania.

Skoro jesteśmy przy obawach o to czy zaawansowane algorytmy – jak twierdzi część naukowców – mogą stanowić dla ludzi „ryzyko egzystencjonalne”?

Mam jasny pogląd w tym względzie – w przypadku większości zastosowań o znaczeniu krytycznym powinniśmy używać AI jako mechanizmu, który dostarcza rekomendacje, a nie jako maszyny, która podejmie za nas decyzje.

Brał pan udział w prowadzonym na pokładzie Międzynarodowej Stacji Kosmicznej (ISS) eksperymencie, mającym na celu obsługę autonomicznych superkomputerów podczas długich podróży kosmicznych. Jakie były jego efekty?

Pierwszy system tego typu zainstalowano na ISS w roku 2017. Składał się on z dwóch połączonych serwerów HPE Apollo 40. Celem był roczny eksperyment, by sprawdzić, na ile standardowe, niezmodyfikowane węzły superkomputerowe są w stanie pracować na ISS, poruszającej się po niskiej orbicie okołoziemskiej. Przez większość tego czasu prowadziliśmy intensywne testy, które dostarczyły mnóstwa wartościowych informacji. W 2019 r. otrzymaliśmy za to medal NASA, a dzięki temu sukcesowi w 2021 r. na ISS uruchomiono kolejny system, tym razem wykorzystywany już do obsługi faktycznych zadań operacyjnych. W tym celu zastosowaliśmy maszyny o dwukrotnie większej mocy obliczeniowej. Oferują one zaawansowane możliwości przetwarzania grafiki, potrzebne do procesowania obrazów i do obliczeń z obszaru AI. Teraz szykujemy się do kolejnej generacji kosmicznego komputera. Warto podkreślić, że na ISS wymieniamy systemy obliczeniowe na nowe mniej więcej w takich odstępach czasu, jak robią to zwykli użytkownicy na Ziemi.

Czy superkomputery i AI to technologie, z których są w stanie korzystać mniejsze firmy, czy tego typu rozwiązania dostępne są głównie dla gigantów z wielkimi budżetami?

By skutecznie trenować algorytmy AI potrzebujemy superkomputerów zaprojektowanych specjalnie do rozwiązywania problemów opartych na dużej ilości obliczeń i danych. W przeciwieństwie do konstrukcji stworzonych dla rozwiązań chmurowych, architektura dla AI pozwala uruchamiać wszystkie układy GPU i CPU jednocześnie w celu rozwiązania jednego problemu. Zbudowanie takiej maszyny to intensywny proces, następnie należy umieścić ją w specjalnie zaprojektowanym pomieszczeniu, by zapewnić wysoką efektywność energetyczną. Stąd sztuczna inteligencja uważana jest za technologię trudno dostępną. Ale ta sytuacja się zmienia. Kilka miesięcy temu ogłosiliśmy, że wchodzimy na rynek rozwiązań AI udostępnianych via chmura publiczna. Oferujemy LLM (duże modele językowe – red.) za pośrednictwem chmury opartej na superkomputerach. To umożliwia każdemu przedsiębiorstwu dostęp do częściowo gotowych dużych modeli językowych, aby mogło je trenować i dostrajać przy użyciu własnych danych. Bariera wejścia w AI została znacznie obniżona.

Jest pan zwolennikiem idei „swarm learning”. Co to jest?

Skupiając się na ochronie prywatności danych, firmom i instytucjom może się wydawać, iż muszą zamknąć swoje dane w „silosie”. To sprawia wrażenie koniecznego z punktu widzenia bezpieczeństwa, ale skutkuje jednocześnie ograniczeniem źródeł informacji, które można gromadzić i przetwarzać. Przez to musimy samodzielnie opracowywać rozwiązania problemów, które ktoś inny już rozgryzł. A wyobraźmy sobie, co by było, gdyby uniwersytety, szpitale i ośrodki badawcze mogły uczyć się od siebie nawzajem, bez narażania prywatności danych? Ile nowych możliwości by to stworzyło i ile czasu zaoszczędziło? Na tym właśnie polega „swarm learning”, czyli uczenie rozproszone.

Działa to tak: grupa instytucji decyduje się wspólnie trenować AI do określonego zadania. Każda organizacja przeprowadza uczenie maszynowe, wyłącznie przy wykorzystaniu swoich danych. Uzyskane w ten sposób wnioski, a nie dane, które pozostają prywatne dla każdej organizacji, są agregowane. Ulepszony model jest na kolejnym etapie udostępniany wszystkim członkom grupy i proces jest kontynuowany.

Trwa wyścig na rynku AI między mocarstwami. Jak widzi pan pozycję Europy w rywalizacji z Chinami i USA?

Branża AI rozwija się w całej Europie, a wiele firm opracowuje innowacyjne rozwiązania i otrzymuje finansowanie od globalnych inwestorów. Przykładem jest niemiecki Aleph Alpha, który niedawno pozyskał ponad 500 mln dol. od konsorcjum z udziałem HPE. Jednocześnie instytucje publiczne w Europie dużo inwestują we własne technologie AI, czego doskonałym przykładem jest superkomputer LUMI. Ze względu na swoją lokalizację jest określany jako inicjatywa fińska, ale w rzeczywistości stanowi on wspólny projekt dziesięciu państw europejskich, w tym Polski. Dzięki niemu, jednemu z najpotężniejszych superkomputerów na świecie, Europa umacnia swoją pozycję wśród światowych innowatorów w wysokowydajnych obliczeniach. To, co wyróżnia europejski ekosystem AI, to nacisk na kwestie takie jak zaufanie, czy suwerenność cyfrowa. Mogą być one postrzegane jak konkurencyjna przewaga w globalnej rywalizacji w zakresie AI, zwłaszcza w kontekście toczącej się dyskusji o prywatności danych i potrzebie regulowania sztucznej inteligencji.

CV
Dr Eng Lim Goh, wiceprezes HPE

Dr Eng Lim Goh, wiceprezes HPE (Hewlett Packard Enterprise), w koncernie odpowiada za projekty związane ze sztuczną inteligencją. Światowej sławy ekspert AI – projektował Spaceborne Computer dla NASA, nadzorował wdrażanie sztucznej inteligencji w wyścigach Formuły 1, współtworzył bota – mistrza pokerowego, współprojektował architektury systemów do symulacji mózgu ssaków.

Od lat bada pan technologie sztucznej inteligencji. Czy postęp w tej dziedzinie poszedł na tyle daleko, że już w tej chwili możemy powiedzieć, że systemy AI są potężniejsze niż człowiek?

Początki naszych prac nad rozwiązaniami, które obecnie wykorzystujemy w technologiach z obszaru AI, były niemal 30 lat temu, kiedy opracowaliśmy aplikację do eksploracji danych o nazwie MineSet. Trafiła ona na rynek już w 1996 r. Wszyscy byliśmy świadkami ogromnego wzrostu zainteresowania AI wraz z pojawieniem się rok temu ChatGPT. Jednakże technologie leżące u jego podstaw były rozwijane od dawna – to m.in. model uczenia maszynowego Transformer sprzed kilku lat, ale też sieci neuronowe sprzed dziesięcioleci.

Pozostało 91% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Biznes
Diesel, benzyna, hybryda? Te samochody Polacy kupują najczęściej
Materiał partnera
Rośnie rola narzędzi informatycznych w audycie
Materiał partnera
Rynek audytorski obecnie charakteryzuje się znaczącym wzrostem
Materiał partnera
Ceny za audyt będą rosły
Materiał Promocyjny
Jak kupić oszczędnościowe obligacje skarbowe? Sposobów jest kilka
Materiał partnera
Czy to jest koniec audytu w obecnej postaci?