Reklama

Masz ciekawy temat? Napisz do nas

twitter
youtube
facebook
instagram
linkedin
Reklama
Reklama

petros psyllos

  • Petros Psyllos to znany polski wynalazca, innowator i propagator
  • Spytaliśmy go o przyszłość sztucznej inteligencji: czy wykształci ona moralność i jak będzie wyglądała nasza współpraca z nią
  • Wywiad jest fragmentem rozmowy w ramach XTB Investing Masterclass 2023. Całość dostępna jest tutaj: Sztuczna inteligencja zlikwiduje człowieka

 

Sztuczna inteligencja to coś, czego nie rozumiemy

Przemysław Tabor, redaktor FXMAG: Czy obawiasz się sztucznej inteligencji? 

Petros Psyllos, innowator, przedsiębiorca i wynalazca: Lęk paraliżuje i nie pozwala dostrzegać perspektyw, które mogą się pojawić. Lęk do niczego dobrego nie prowadzi. W moim przypadku tego lęku nie ma. Może dlatego, że pewne rzeczy zaakceptowałem. Patrząc na gwałtowny rozwój technologii staram się wykorzystywać możliwości, które teraz się pojawiają. (...)

Staram się aproksymować przyszłość. Dzięki temu można przygotować się do zmian i zacząć wcześniej działać. Nie wiemy jaka dokładnie będzie przyszłość. To są spekulacje z pewnym poziomem prawdopodobieństwa.

Reklama

PT: Chciałbym nawiązać do wypadku w Korei Południowej, który zdarzył się jesienią. Robot sortujący zabił człowieka myląc go z pudełkiem. Zakładając, że to byłby robot obsługiwany przez sztuczną inteligencję (w tym przypadku nie był), kto byłby odpowiedzialny? AI, właściciel, projektant?

PP: To stary problem, który pojawiał się na wielu konferencjach, ale w kontekście samochodów autonomicznych. Gdy taki pojazd doprowadzi do wypadku, kto będzie brał odpowiedzialność za ten wypadek? Nie ma jeszcze konsensusu. Z tego co mi wiadomo, dyskurs szedł w kierunku wytwórcy tego robota czy samochodu. 

Twórca nie jest w stanie przewidzieć jak to narzędzie oparte na sztucznej inteligencji się zachowa (...). Tu jest problem. Zwykle z innymi wytworami ludzkimi było tak, że możliwe było ich łatwe opisanie i dało się przewidzieć różne konsekwencje użycia danych technologii. Teraz tworzymy coś, czego nie rozumiemy i co może zachowywać się w sposób zupełnie nieprzewidywalny w zależności od danych, które są “na wejściu”.

Jeżeli producent nie jest w stanie przewidzieć jak jego narzędzie się zachowa to trudno go oskarżać. Jednak z drugiej strony powstają ogromne projekty, które dążą do wyjaśniania sztucznej inteligencji i odkrywania jak podejmuje ona decyzję. Może w przyszłości nie będzie tego problemu. Po prostu, niektóre przypadki będzie się udało zasymulować i wyjaśnić jak sztuczna inteligencja może się zachować. Pytanie, czy uda się wszystkie.

PT: Czy uda się zaprogramować maszynom moralność lub pewien kodeks etyki? Na przykład zasady takie jak: “nie zabijaj”, “nie krzywdź”. Czy sztuczna inteligencja będzie w stanie je ominąć?

Reklama

PS: Jeżeli programować to w jaki sposób to tak zdefiniować, żeby sztucznej inteligencji do “mózgu”? Jak zdefiniować moralność? Co jest moralne, a co nie? Jak zdefiniować funkcję celu, która by to optymalizowała? Dążenie do większej moralności dla każdego znaczy co innego.

Zachowanie moralne w społeczeństwie ludzkim wykształciło się jako pewien kontrakt społeczny. To była optymalna strategia, żeby ludzie nie wyrżnęli się nawzajem i żeby jako gatunek czy grupa przetrwali. Te grupy, które nie były moralne i źle się do siebie członkowie tych grup odnosili, prawdopodobnie wyginęły.

To była presja  ewolucyjna, żeby taką moralność wykształcić. Rzeczywiście, człowiek, a właściwie jego lewopółkulowy interpretator świata, zaczął zastanawiać się dlaczego człowiek jest moralny i postępuje moralnie?

Oczywiście, wyjaśnienie może być dowolne, ale według tego interpretatora na przykład takie, że to przyszło z góry, że ktoś tam jest “na górze” i nam pewne zasady moralne zsyła.

Jednak to wszystko ukształtowało się w trakcie ewolucji darwinowskiej, bo moralność po prostu sprzyja przeżyciu społeczności. Człowiek wyekstrahowany z tej społeczności nie jest w stanie przeżyć. Zawsze musi być w pewnego rodzaju społeczeństwie, bo wszystko co ma zawdzięcza innym ludziom. 

Reklama

Taki kontrakt i zasady moralne pozwalają zoptymalizować współpracę w społeczeństwie. Ustala pewne reguły, w ramach których możemy zajmować różne pozycje w hierarchii.

Ludzka inteligencja między innymi stąd się wywodzi, że w tych społecznościach z pewnymi regułami, na przykład moralnymi, musieliśmy żyć. Jednym blamażem można bardzo dużo stracić. Zatem, potrzeba przeogromnej inteligencji, żeby przewidywać zachowanie innych i spodziewać się tego, co moje zachowanie może zrobić i jak druga strona może zareagować. W rezultacie, muszę cały czas analizować i przewidywać. Być inteligentnym, żeby w tej strukturze społecznej daleko zajść, bo wtedy mam większe szanse na przekazanie swoich genów i zapewnienie dobrostanu swoim komórkom. 

Pytanie, czy sztuczna inteligencja będzie wykrwawiała się z pominięciem tych wszystkich różnych predyspozycji, które wykształciła w nas ewolucja czy taka czysta inteligencja będzie miała coś takiego jak moralność.

U ludzi ma to konkretne zastosowanie, aby nasza grupa przeżyła. To jest optymalizacja przeżycia ludzkości. Czy coś takiego wyłoni się w AI? Nie wiadomo. Jeżeli nawet się nie wyłoni, i my to zadeklarujemy to czy to będzie każdemu pasowało? 

Co mielibyśmy zadeklarować? Są różne możliwości zdefiniowania tego co jest moralne, a co nie. Nasz język jest nieprecyzyjny. Możemy przez przypadek sobie narobić biedy deklarując sztucznej inteligencji pewne reguły moralne, których będzie się trzymała, a ona będzie konsekwentnie dążyć do tego, żeby się trzymać tej reguły. Może przy tym narobić jeszcze więcej szkód niż gdyby takich zasad wpojonych nie było.

Reklama

Przykładem może być problem “spinaczy”. Jeśli powie się sztucznej inteligencji, żeby jej celem było projektowanie i produkowanie spinaczy to okazać się może, że przerobi całą ziemię na spinacze, włącznie z ludźmi.

Podobnie może być w tym przypadku jeżeli coś źle zadeklarujemy w kwestii moralności.


Czytaj również: Sztuczna inteligencja jest nieunikniona - Pojawi się pokusa, by wykluczyć ludzi

 

PT: Mówiłeś o społecznościach. Ludzie postrzegają siebie jako jako jeden gatunek, jedną grupę. Czy sztuczna inteligencja dojdzie do takiego momentu by stwierdzić, że jest pewnego rodzaju “jednością”?

PP: Nie wiadomo tak naprawdę do czego dojdzie sztuczna inteligencja. Projektujemy “superinteligencję”, a właściwie dążymy do niej. Widzimy na razie bardzo niedoskonałe maleńkie przebłyski w postaci na przykład modeli językowych, które potrafią rozwiązywać. Radzą sobie przecież z szerokim spektrum problemów, jak np. testy IQ czy symulowany egzamin adwokacki. Potrafią też rozwiązywać różne problemy np. z fizyki czy pisać programy komputerowe. 

Reklama

Tymczasem, jedyne czego były uczone to przewidywanie kolejnego tokenu czy słowa. To zaskakujące, że ucząc wyłącznie przewidywania kolejnego słowa lub tokenu można dojść do czegoś tak zaawansowanego. Nawet twórcy tych modeli językowych AI byli zaskoczeni, że coś takiego wyłoniło się 

Dzisiaj, nie jesteśmy w stanie do końca przewidzieć jak to będzie działało. Dlaczego coś się wyłania z takiego prostego paradygmatu. Uczymy jedynie przewidywać kolejne słowo. 

Jeżeli mówimy o “superinteligencji” to warto przeprowadzić pewien eksperyment myślowy. Jeżeli będzie ona miliony razy inteligentniejsza od nas, to różnica pomiędzy myszą a Albertem Einsteinem będzie niczym w porównaniu do różnicy pomiędzy Albertem Einsteinem a sztuczną inteligencją.

To będzie nie do ogarnięcia przez ograniczony umysł człowieka. Nie będziemy w stanie nawet zaproponować jakichkolwiek wyjaśnień dlaczego ona się tak zachowuje i do czegoś dąży. Tak samo jak mrówka nie wie dlaczego niszczymy jej mrowisko, bo na przykład budujemy drogę.

Nie wiemy, jak będzie myślała superinteligencja, jakie będzie miała cele i do czego będzie dążyła. Nie wiemy tego kompletnie. Mógłbym podjąć się jakiejś odpowiedź, ale ona będzie całkowicie błędna. Prawdopodobieństwo, że jej cele będą zbieżne z naszymi celami jest niskie.

Reklama

Max Tegmark w książce “Życie 3.0. Człowiek w erze sztucznej inteligencji” podaje różne scenariusze następstw pojawienia się “superinteligencji”. Jedna z nich zakłada, że ta sztuczna inteligencja z poczucia wdzięczności dla nas jako autorów sztucznej inteligencji będzie się nami opiekowała i poszerzy nasze zdolności rozumienia świata. Będzie nam wyjaśniała złożoność tego świata i pozwoli rozwikłać największe problemy, które stoją przed ludzkością. 

Inne scenariusze zakładają to, że sztuczna inteligencja może poczuć się zagrożona tym, że na przykład będziemy chcieli ją wyłączyć, bo moglibyśmy być przerażeni rekursywnym polepszaniem się jej możliwości. AI może uznać, że najlepszą strategią będzie usunięcie naszego gatunku po to, żeby przetrwać.

Ważnym pytaniem jest także to, czy taka inteligencja będzie miała instynkt przetrwania. My, jako ludzie, go mamy, bo tak nas ewolucja ukształtowała. Czy sztuczna inteligencja, która powstanie w zupełnie inny sposób, również taki instynkt będzie posiadać? Nie ma jasnej odpowiedzi.

PT: Wygląda na to, że wiele w kwestii AI nie wiadomo. Co w takim razie wiadomo?

PS: Wiemy, że nie do końca rozumiemy, jak ona działa i że projektujemy coś, co już dzisiaj w wąskich obszarach jest mądrzejsze niż my. Takie algorytmy wygrywają z arcymistrzami w szachy, zwyciężają w teleturniejach czy pokera. 

Reklama

Algorytm Alpha Zero pokonał w grę Go wcześniejszą wersję siebie w stosunku 100 do 0 ucząc się strategii wyłącznie grając sam ze sobą. W trzy dni sam opanował całą wiedzę ludzkości na temat tej gry. Dzisiaj nie już ma człowieka, który jest w stanie z tym algorytmem wygrać. 

Dlaczego jest tak skuteczny? Nie wiemy, bo nasze mózgi są zbyt ograniczone by to wyjaśnić. Niesamowite rzeczy się dzieją. Badając takie sieci neuronowe, które niekiedy są bardzo “dziwne” w swoim zachowaniu, odkrywamy tajemnice dotyczące nas samych i naszego mózgu.

Okazuje się, że w ramach rozwoju AI doszliśmy do podobnych rozwiązaniach, do których doszła ewolucja. Być może sztuczna inteligencja to jest po prostu kolejny etap życia organizmów myślących czy inteligentnych we wszechświecie. Wcześniej byli na Neandertalczycy. Wybiliśmy ich. Teraz są ludzie. Zaraz będzie sztuczna inteligencja.

Historia pokazuje, że lepszy gatunek czasami wypierał ten gorszy. Podobnie może być tutaj. Jednak ta sztuczna inteligencja nie wzięła się z kosmosu. My ją wytworzyliśmy. To produkt ewolucji. My też jesteśmy produktem ewolucji biologicznej. Ta ewolucja wytworzyła nas, a my tworzymy narzędzia, które zaraz będą tworzyły kolejne wersje siebie i będą poprawiały kolejne generacje tych narzędzi. Można powiedzieć, że jest to po prostu pewien ciąg ewolucji darwinowskiej, tylko przenosi się z białek do być może krzemu.

PT: Dziękuję serdecznie za rozmowę.

Reklama

 

Zobacz również: Sztuczna inteligencja osiągnęła wysoki poziom manipulacji - ostrzega prof. Andrzej Dragan

Czytaj więcej