Reklama

Masz ciekawy temat? Napisz do nas

twitter
youtube
facebook
instagram
linkedin
Reklama
Reklama

informatyka

 

Sztuczna inteligencja - co niesie przyszłość?

Przemysław Tabor, redaktor FXMAG: Sztuczna inteligencja to na ten moment różne oddzielne procesy, które mamy pod kontrolą. Jednak, czy kiedyś mogą się spod niej wymknąć? Czy AI może uznać, że warto będzie połączyć się w jeden byt i stworzyć pewnego rodzaju “super organizm”.

Prof. Andrzej Dragan: Na tym etapie sztuczna inteligencja, którą dotąd tworzyliśmy, nie ma żadnych swoich celów. Ona nie ma żadnej podmiotowości w tym sensie, że nie ma celu, który chce realizować z wyjątkiem tego co jej sami stworzymy.

Badania naukowe idą w tę stronę, żeby taką niezależność od zewnętrznych podmiotów wprowadzić w tego typu byty. Być może to się w końcu uda. Nie widzę powodu, żeby to się miało nie udać. W końcu ludzie, którzy ewidentnie mają swoje cele, zostali wyhodowani w procesie ewolucji w sposób niewymagający specjalnego planowania. Zatem, podobny mechanizmy ewolucyjne czy pewne zmiany wdrożone na poziomie algorytmów, też mogłyby do czegoś takiego doprowadzić. 

Reklama

W przyszłości, nie wiadomo jak odległej, te algorytmy coraz lepiej programują w różnych językach. Teraz jest to poziom nastolatka. Za kilka lat to będzie prawdopodobnie poziom dorosłego programisty. Jeżeli dopuścimy możliwość automodyfikacji oraz współzawodnictwo między różnymi algorytmami w walce o jakiekolwiek zasoby(...) to coraz to bardziej wyrafinowane sposoby działania mogą wytworzyć coś na kształt własnej woli. Naszą jedyną przewagą w takiej konkurencji był intelekt. Osiągnięcie poziomu inteligencji człowieka przy tym tempie rozwoju to kwestia pewnie kilku lat. To spowoduje, że trudno będzie nam dotrzymać kroku.

Nie jestem świadomy jakichkolwiek fundamentalnych ograniczeń, które powodowałyby, że tego typu scenariusz jest absolutnie niemożliwy. Oczywiście, takie ograniczenia mogą istnieć lub możemy odkryć je za jakiś czas lub mogą okazać się “po drodze”. Ja po prostu jestem ich nieświadomy. To może być moja ignorancja.

 

Zobacz także: Rekordowe wyniki wielkich spółek. Akcje czeka kolejny rajd - to nie bańka

 

PT: Wsłuchując się w opinię publiczną wybrzmiewa pewna rezerwa do sztucznej inteligencji czy nawet pewien strach wobec niej, zapewne wynikający z naszego instynktownego podejścia do nieznanego. Jednak czy ten strach jest uzasadniony? Czy ona w ogóle ma jakiekolwiek znaczenie?

Reklama

AD: Strach jest pożytecznym narzędziem. (...) Powoduje on, że czegoś nie robimy albo coś robimy, żeby zmienić przyszłość. Na przykład, by nie spaść z budynku posiadamy mamy lęk wysokości, który powoduje, że nie wchodzimy na wysokie budynki. Wydaje mi się, że niewiele możemy zrobić. Trudno jest powstrzymać rozwój. Szczególnie, jeśli jest napędzany taką wielką ilością pieniędzy. Niedawno pojawił się wywiad z Samem Altmanem (CEO OpenAI, firmy odpowiadającej za stworzenie ChatGPT, przyp. red.) w Financial Times. W tej rozmowie został on zapytany między innymi o to jakie sobie cele teraz stawia i czym się zajmuje.

Altman powiedział, że teraz zajmuje się tylko dwiema rzeczami. Pierwsza to badania podstawowe na temat tego, jak stworzyć “superinteligencję”. Druga, to jak stworzyć moce obliczeniowe, które pozwolą tą “superinteligencję” zasilić danymi. Ta odpowiedź pokazuje, że w zasadzie to jest jedyne, co duże firmy tak naprawdę w tym momencie robią. 

To wyścig o to, kto pierwszy wytworzy sztuczną inteligencję, czyli algorytm, który przekracza człowieka swoimi możliwościami. Nie wiadomo czy to jest mrzonka. (...) Wydaje się, że ten rozwój, który obserwujemy, wskazuje, że to wcale nie jest takie niemożliwe.

Na przykład teraz mamy największe modele językowe, które mają liczby połączeń neuronalnych na poziomie 1% mózgu. Geoffrey Hinton napisał ostatnio, że niektóre firmy zaczynają tworzyć już algorytmy, które po wytrenowaniu będą miały stukrotnie większe  rozmiary (...), co oznacza, że prawdopodobnie będziemy mieli do czynienia z poziomem mniej więcej ludzkiego mózgu. Przy czym, skala czasowa o której jest mowa to 18 miesięcy.

Dla mnie było zawsze jasne, że to jest kwestia przyszłości, że stworzymy algorytmy, które będą z nami porównywalne pod każdym względem. Natomiast, nie spodziewałem się, i chyba nikt nie spodziewał, że to jest kwestia, która być może wydarzy się za naszego życia.

Reklama

 

PT: To co dzieje się już teraz, to jest zalew informacjami kreowanymi między innymi przez algorytmy AI… Czy w przyszłości będziemy często oszukiwani? Czy będziemy podważać każdą rzecz? Jak zmieni się postrzeganie prawdy?

AD: Będzie coraz trudniej. Mrzonką jest wyobrażenie, że będziemy w stanie odróżniać w sposób jednoznaczny prawdę od fałszu. Już teraz w zasadzie nie odróżniamy tekstu stworzonego przez człowieka od tego stworzonego przez maszynę. Przypomnę, że pewnie nikt nie zauważył, że w lipcu 2023 roku został złamany test Turinga przez ChatGPT, o czym donosiło Nature. Ten kamień milowy nieodróżnialności konwersacyjnej inteligencji od człowieka już został osiągnięty.

Co więcej, żeby ChatGPT był nieodróżnialny od człowieka musiał zostać ogłupiony, żeby go lepiej przypominać. Zatem, już teraz nie jesteśmy w stanie odróżniać tekstu pisanego przez człowieka i przez algorytm. Z odróżnianiem obrazów jest też coraz trudniej. Obrazy małej rozdzielczości, szczególnie gorszej jakości, już teraz są nieodróżnialne.

“Deef fake”, gdy jest dobrze zrobiony, też jest nieodróżnialny od prawdziwych nagrań. Dopiero zaczynamy tą przygodę a już teraz mamy kłopot z odróżnieniem prawdy od wirtualnej rzeczywistości. To jest pewnie kwestia czasu kiedy ten stopień nieodróżnialności stanie się już absolutnie idealny. W takiej sytuacji trzeba będzie zupełnie poważnie zastanowić się nad sposobem certyfikowania prawdy. To brzmi dosyć podejrzanie, bo Ministerstwo Prawdy znamy już z literatury. Wydaje się, że trzeba będzie poważnie pomyśleć nad tego typu rozwiązaniami, abyśmy w ogóle mieli jakikolwiek stopień pewności, że to co widzimy to jest coś sztucznego czy jest to rzeczywistość. 

Reklama

 

Czytaj również: Spółka z GPW rośnie już o ponad 150%! Kurs wystrzelił po krótkim komunikacie

 

PT: Zresztą, już teraz można uznać, że pewne algorytmy sterują naszym zachowaniem. Już od pewnego czasu istnieją przecież różnego rodzaju promocje i polecenia oparte na naszych preferencjach i wcześniejszych zachowaniach. Czy zgadza się Pan z tezą, że algorytmy już nami sterują?

AD: To, że ludzie “scrollują” ekrany swoich telefonów w mediach społecznościowych to nie jest wyłącznie zasługa tego, że takie treści są interesujące, tylko są one podsuwane w sposób spersonalizowany dla każdej osoby. Podsuwane są przez algorytmy sztucznej inteligencji, która analizując nasze zachowanie w sieci nauczyła się tego, na co zwracamy uwagę, a co ignorujemy. Te algorytmy ucząc się naszych zachowań efektywnie podsuwają nam kolejne treści. Bezmyślnie przewijamy to wszystko. To nie jest zbieg okoliczności, tylko jest to zasługa bardzo trafnej manipulacji naszymi upodobaniami przez algorytmy AI. Jeśli chodzi o poziom manipulacji nami to te algorytmy są bardzo zaawansowane.

Zresztą, w psychologii znane są prace pokazujące, że bardzo niewiele trzeba, żeby poznać profil psychologiczny człowieka. Wystarczy kilkaset reakcji w internecie, lajków czy komentarzy, by w ten sposób stworzyć profil psychologiczny danej osoby, który jest bardzo dobry, a nawet lepszy niż mogłaby stworzyć bliska osoba. Jeśli chodzi o sposób manipulacji ludźmi to algorytmy już dawno osiągnęły bardzo wysoki poziom.

Reklama

PT: Panie Profesorze, dziękuję serdecznie za rozmowę.

 

Sprawdź także: Katastrofa rynku IPO na GPW. Nie dajmy się zwieść wysoką dynamiką

Czytaj więcej