Reklama

Masz ciekawy temat? Napisz do nas

twitter
youtube
facebook
instagram
linkedin
Reklama
Reklama

sztuczna

  • Algorytmy manipulują naszymi upodobaniami podsuwając nam profilowane treści
  • Sztuczna inteligencja będzie stawać się w tym coraz doskonalsza
  • Możliwe, że nasz świat jest symulacją: szanse na to są duże
  • Wywiad jest fragmentem szerszej rozmowy z Petrosem Psyllosem dostępnej na kanale YouTube FXMAG: Sztuczna inteligencja zlikwiduje człowieka

 

Manipulacje algorytmów i sztucznej inteligencji

Przemysław Tabor, redaktor FXMAG: Dla przeciętnego człowieka sztuczna inteligencja to obecnie tworzenie śmiesznych obrazków czy generowanie odpowiedzi z pomocą ChatGPT. Te twory stają się coraz bardziej wiarygodne. Czy będziemy coraz częściej oszukiwani? Czy będziemy podważać rzeczywistość wokół nas? Jaka jest przyszłość prawdy?

Petros Psyllos, wynalazca, przedsiębiorca i innowator: Prawda jest ulotna. Nie ma czegoś takiego jak prawda. Jeśli chodzi o “deep fake’i” czy podobne dzieła sztucznej inteligencji to już doszliśmy do etapu, w którym odróżnienie prawdy od fikcji jest bardzo trudne. 

Niektórzy spodziewają się, że w ciągu następnych dziesięciu lat  w przestrzeni tej internetowej będzie więcej nieprawdziwych treści wygenerowanych przez sztuczną inteligencję niż tych prawdziwych i wiarygodnych informacji. To jest spore zagrożenie. To, co jeszcze dało się niedawno wykryć, bo te obrazki i teksty nie były doskonałe, dzisiaj jest już bardzo wiarygodne. W przyszłości będzie jeszcze wiarygodniejsze.

Reklama

Zapewne w przyszłości będziemy instalowali, tak jak wykorzystujemy teraz wykrywacze komputerowych wirusów, oprogramowanie rozpoznające deep fake’i.

Pytanie, kto wygra ten nowy “wyścig zbrojeń”. Jedni będą robili lepsze algorytmy tworzące lepsze treści, a drudzy lepsze algorytmy wykrywające te “fejki”. To podobny wyścig jak w przypadku wirusów. Powstają sprawniejsze antywirusy i zabezpieczenia, co powoduje, że wirusy muszą ewoluować i być lepsze.

To ogromny problem. Być może, będziemy potrzebowali instytucji, które będą wiarygodnymi źródłami informacji. Weryfikowałyby one te informacje. Byłyby to pewne instytucje zaufania.

Zaleje nas może nieprawdy. Pytanie, czy my to w ogóle dostrzeżemy. 

 

Zobacz również: Sztuczna inteligencja osiągnęła wysoki poziom manipulacji - ostrzega prof. Andrzej Dragan

 

Reklama

Przemysław Tabor: Zatem, czy zauważymy taki moment, w którym uznamy “OK, dobra. W tym momencie możemy stwierdzić, że algorytmy w gruncie rzeczy sterują nami”. Czy może ten moment już nastąpił? Jesteśmy przecież zalewani rekomendacjami z portali aukcyjnych, które wcześniej zbierają o nas dokładne informacje.

Petros Psyllos: Tak, algorytmy sterują nami już od paru lat. Przynajmniej, analizują nasze ślady cyfrowe, które zostawiamy w przestrzeni internetowej. Na tej podstawie są w stanie przewidzieć nasze preferencje czy zachowanie.

Zresztą, ciekawe badania przeprowadził dr Michał Kosiński ze Stamford University. Okazuje się, że tylko 300 lajków na Facebooku wystarczy, żeby sztuczna inteligencja więcej o nas wiedziała niż na przykład partnerka życiowa w ramach pewnych kategorii.

Dużo informacji można wyciągnąć już choćby ze zdjęcia profilowego na portalu społecznościowym. Nawet poglądy polityczne, z tego co pamiętam, da się określić z 75% skutecznością. 

Algorytmy dużo i coraz więcej o nas wiedzą. Później mogą wykorzystywać to do socjotechniki i do wpływania na nasze zachowanie i na nasze decyzje poprzez poruszanie pewną struną emocjonalną w naszym umyśle. Na przykład, poprzez skłanianie nas do tego, żebyśmy na przykład zostawali dłużej na tych portalach, klikali w różne treści czy angażowali się w skrajne dyskusje. Takie zaangażowanie nas pozwala wyświetlić więcej reklam. To gra o naszą uwagę. Algorytmy mogą też manipulować nami, po to żeby wygrywać wybory.

Reklama

Politycy już od jakiegoś czasu korzystają z tych narzędzi, które zostały zaprojektowane pierwotnie z myślą o sprzedaży pewnych produktów. W tym przypadku służą do sprzedaży pewnych przekonań.

Oczywiście, takie algorytmy można wykorzystać również do dobrych rzeczy. Na przykład analizować preferencje uczniów i podsuwać im pewne treści, które w jak największym stopniu rozwiną ich mózgi. Mogą znaleźć zastosowanie również w psychoterapii wspomaganej przez algorytmy.

Każda technologia jest obosieczna. Są jej plusy, ale również minusy.

Przemysław Tabor: Kilka lat temu dość popularna była wiadomość o tym, że Elon Musk uważa, iż żyjemy w symulacji. Prawdopodobieństwo, że się w niej nie znajdujemy ma być bardzo niskie. Co o tym sądzisz? 

Petros Psyllos: Nick Bostrom stworzył taką hipotezę, że gdy jakaś cywilizacja dojdzie do momentu, gdy komputery mają wystarczającą moc obliczeniową i ilość pamięci oraz posiada dostateczną wydajność obliczeniową, a przy tym nie wybije się w międzyczasie to wytworzy coś takiego w czym będzie się udało symulować światy wirtualne. Jeśli wystarczy mocy obliczeniowej, to będzie się dało wytworzyć w tym czymś świadome istoty.

Reklama

Można też cywilizację skopiować i na przykład przenieść do takiego świata wirtualnego i tam on będzie mógł on zaistnieć i będzie tam funkcjonował. Tak naprawdę będzie tożsamy z obecnym, jeżeli chodzi o wrażenia aktywne i to, jak działa mózg w porównaniu do tego bieżącego świata. 

Jeżeli będzie się dało wykreować świat i puścić tam ewolucję darwinowską, która doprowadzi do inteligentnych istot, to można założyć, że takie istoty w tej symulacji będą mogły tworzyć kolejne symulacje, bo dojdą też do zaawansowanej nauki, która pozwoli im budować maszyny liczące, które będą mogły wykonywać symulacje. Zatem, również będą mogły zasymulować inną cywilizację i inny wirtualny świat w tym wirtualnym świecie itd. W ten sposób mogą powstawać kolejny wirtualne światy.

Zresztą, ta bazowa cywilizacja, która doprowadziła do tej symulacji też może takich symulacji mieć bardzo dużo. Co to za problem zduplikować i wytworzyć przykładowo 99 symulacji? Jakie jest prawdopodobieństwo, że ta cywilizacja uznawana przez nas za bazową jest tą prawdziwą? Prawdopodobieństwo to 1%.

Zatem, teoretycznie osiągalna jest nieskończenie dużą liczba takich symulacji. (...) W tych symulacjach będą też kolejne symulacje. Wtedy może się okazać, że prawdopodobieństwo, że żyjemy w symulacji, a nie w tym świecie realnym może wynosić 99,(9%). Tak, z “9” w okresie. Jednak po drodze trzeba spełnić wiele warunków koniecznych do tego, żeby w ogóle taka symulacja była możliwa. Pytaniem czy będzie się dało je spełnić.

Czy dojdziemy do takiej mocy obliczeniowej? Raczej tak. Czy będzie można wytworzyć świadomość w maszynie? Czy świadomość jest czymś zasadniczo możliwym do zasymulowania? Raczej żadne prawa fizyki nam tego nie zabraniają i nie mówią, że to nie będzie możliwe. (...) 

Reklama

Pojawia się też otwarte pytanie: “czym jest świadomość?”. Wypadałoby ją zdefiniować. Nie ma dobrej definicji. To jest takie pole, o którym moglibyśmy rozmawiać bardzo długo i żadnych konkretnych wniosków nie wyciągnąć. (...)

Nigdy nie będziemy pewni, że sztuczna inteligencja nie posiada samoświadomości. Trzeba też rozgraniczać samoświadomość o świadomości. To co innego. Świadomość ma nawet prosta komórka, bo musi być świadoma swojego otoczenia na tyle, na ile to jest oczywiście potrzebne, żeby np. odnaleźć cukier i go wchłonąć otwierając receptor.

Przemysław Tabor: Dziękuję za rozmowę i za to, że nas odwiedziłeś.

Petros Psyllos: Dziękuję bardzo i niech moc sztucznej inteligencji będzie z wami. Polecam edukowanie się w tej dziedzinie, bo w ciągu następnych dziesięciu lat nastąpi więcej zmian niż w ciągu ostatnich 100 lat w kwestii AI i innych wykładniczych technologii. Żyjemy w ciekawych czasach, a następne lata będą coraz ciekawsze.

 

Czytaj również: Sztuczna inteligencja jest nieunikniona - Pojawi się pokusa, by wykluczyć ludzi

Czytaj więcej

Artykuły związane z sztuczna