Prof. Płoszajski: Nie mamy czerwonego guzika. A czy mamy plan awaryjny?

Published by Tomasz Bitner
April 13, 2023 @ 2:21 PM

Dla ludzi AI staje się testem na zdolność uczenia - mówił prof. Piotr Płoszajski w trakcie spotkania CIONET Advisory Board. Boty są już nazywane „kłamliwymi kretynami”, a ich twórcy nie biorą odpowiedzialności za skutki ich działania. Kłamstwa będą wzmacniane i traktowane jako wartościowe informacje, stając się podstawą zasadniczych decyzji. Czy mamy plan awaryjny na przyszłość?

Przedstawiamy skrócony zapis wykładu wygłoszonego przez prof. Piotra Płoszajskiego w trakcie spotkania CIONET Advisory Board na początku kwietnia
2023 r.

Czy ChatGPT to przełom? Tak. Czy to największa innowacja w historii? Tak, ale tylko jeśli chodzi o szybkość oraz zasięg oddziaływania. Całościowe konsekwencje w tej chwili trudno przewidzieć, ale obecnie wydaje się, że wśród innowacji z ostatnich lat CRISPR [metoda manipulacji kodem genetycznym] może mieć istotniejsze oddziaływanie.

Ulegamy halucynacji generowanej przez AI

Z pewnością oddziaływanie ChatGPT dotknie wszystkich obszarów życia. W efekcie zmieni się biznes, rynki pracy, edukacja, sektor IT, medycyna, życie codzienne. Będzie to też kolejna odsłona epickiej wojny technologicznych gigantów: Google’a, Microsoftu, Facebooka. MS Bing „próbuje zjeść obiad Google’a”, bo wyszukiwarka oparta na czatbocie nie pozostanie przecież zabawką interautów, ale zostanie przekształcona w rdzeń technologii biznesowych, stanie się wszechobecna, powtarzając sukces Google’a.

To stawia nowe wyzwania dla bota, który potrzebuje ludzkiej empatii. Im bardziej centralne i ważne stają się w naszym życiu boty, tym większe ryzyko, że będą używane, aby nas wykorzystać. Nie odrzucam bota, ale model biznesowy, który za nim stoi.

Do najważniejszych obszarów wskazywanych przez krytyków botów, których jest tylu samo, co entuzjastów, należą trwałość (w znaczeniu sustainability), etyka, dezinfomacja, tendencyjność oraz prawa autorskie.

ChatGPT niczego nie tworzy. Jest automatycznym kalkulatorem wypluwającym słowa, „stochastyczną papugą”. Stał się za to potężnym zjawiskiem społecznym, które wynika z fascynacji krótkimi zmianami, przy jednoczesnym niedocenianiu długofalowych konsekwencji. Podobnie nie docenialiśmy efektu COVID-u jako crash testu efektów globalizacji.

ChatGPT jest testem naszej cywilizacyjnej zdolności do szybkiego uczenia. Stał się najszybciej skalowaną innowacja technologiczną w historii cywilizacji. Towarzyszy jej wielki hype i mało zrozumienia.

Ulegamy wielkiej halucynacji, która jest efektem dezinformacji generowanej przez AI. Wszystkie czatboty mają problem z wiarygodnością, co oznacza, że my jako ludzie też go mamy, bo one uczą się od nas.

Widzimy zjawisko, które nazywam interferencją sztucznej inteligencji - kiedy boty i algorytmy produkują dezinformację, a inne zasysają to jako informację. Przeniesienie tego na decyzje gospodarcze może prowadzić do wielu perturbacji. To zjawisko będzie miało dramatyczne konsekwencje. Dziś już dostrzegamy koszmarny scenariusz cyfrowej przyszłości. To jest jak cyfrowy pokój luster. Internet za chwilę stanie się kopią samego siebie i nie da się już odróżnić prawdy od fałszu.

Możemy spodziewać się spłaszczenia demograficznej krzywej Gaussa. Opisuje ona wiele różnych zjawisk, także zdolność do rozwiązywania problemów. Może okazać się, że brak tej zdolności wkrótce w niczym nie będzie przeszkadzał. To efekt Thermomixa: nawet beztalencie może przygotować trzydaniowy obiad, a z wykorzystaniem AI szesnastozgłoskowy poemat.

Potrzebujemy humanizmu, a nie socjopatycznych botów

Jeśli AI jest „human-like”, to ludzie muszą być bardziej „human”. Sztuczna inteligencja może poprawić nam życie, ale żeby wykorzystać to, że maszyny stają się mądrzejsze, my musimy zyskać mądrość dotyczącą maszyn. Następna faza kapitalizmu będzie potrzebowała nie mniej, ale więcej humanizmu.

Poprzednia generacja sztucznej inteligencji tworzyła perfekcyjnych służących. Obecna tworzy najlepszych przyjaciół, a nawet terapeutów. To jest zmiana lokaja we fraku na gadatliwą, empatyczną przyjaciółkę.

To rodzi pytanie, czy czat ma świadomość. Bez świadomości czatboty są skazane na stanie się niebezpiecznymi socjopatami, którzy szkodzą ludziom imitując ich umysł.

Gdzie jest granica między zwykłą maszyną a zaawansowanym czatbotem? Pomysł na test Płoszajskiego: co robi czatbot, kiedy o nic go nie pytamy. Jeśli nie dzieje się nic, światełka na deklu nie mrugają, a więc nie myśli, to chwała Bogu.

Musimy uczynić ludzką inteligencję naszym celem ewolucyjnym

Jeśli kreatywność daje się programować, to ludzie muszą przemyśleć swój notoryczny narcyzm. Skoro obraz stworzony przez AI na aukcji cieszy się większym zainteresowaniem od obrazów malowanych przez ludzi, to musimy porzucić swój narcyzm.

Musimy sobie powiedzieć, że inteligencja nie była celem ewolucji, tylko wypadkiem przy pracy. Celem było przetrwanie gatunku. Inteligencja jest zbyt energochłonna, żeby ewolucja na nią stawiała. Dlatego korzystamy zaledwie z kilku procent możliwości naszych mózgów. To jest wyzwanie dla nas, ludzi: uczynić inteligencję swoim celem ewolucyjnym.

Sztuczna inteligencja jest podobna do ludzkiego mózgu w tym, że potrzebuje ogromnych ilości energii. Pewien startup wyliczył, że oprogramowanie AI do układania kostki Rubika wymaga 2,8 GWh energii. To produkcja trzech elektrowni atomowych w ciągu godziny. Nawet najgłupsze zapytanie do sztucznej inteligencji wywoła ślad węglowy. I to duży.

Zmian nie da się zatrzymać. Budujmy plan rezerwowy

To co widzimy, to porażający brak odpowiedzialności twórców AI. Open AI opracowało GPT już jakiś czas temu i odłożyło go na półkę, po czym z nieznanych powodów sięgnęło po niego właśnie teraz i postanowiło go upublicznić. Sam Altman, szef OpenAI powiedział wkrótce potem: „To jest okropny produkt”. Microsoft Bing jest opisywany jako „często wojowniczy, uparty i zwyczajnie nie mający racji; może być narcystyczny i agresywny”. A Altman nie może się zdecydować, jest za AI i jednocześnie przeciw. W jednym wywiadzie mówi, że to góra pieniędzy, w innym, że może doprowadzić do wielkiej apokalipsy.

Czy tak ma wyglądać przyszłość? Jedni będą tworzyć sztuczną inteligencję, zostawiając innym zmartwienie o efekty jej stosowania? Apele o czasowe zatrzymanie prac nie mogą niczego zmienić, bo prace nad AI trwają w setkach miejsc na. Świecie. Nie ma czerwonego guzika, który można by wcisnąć i wstrzymać prace na pół roku. Naukowcy ze Stanfordu sklonowali Chat GPT z większością jego funkcji za 600 dolarów. Nie już sposobu, żeby zapędzić dżina z powrotem do butelki.

Zostało stworzone nieprawdopodobnie silne narzędzie, ale nie wiadomo, jak ono działa. Sytuacja zrobiła się bardzo poważna. Prezydent Biden spotkał się z doradcami, żeby przedyskutować konsekwencje. Włochy zabroniły wykorzystywania Chat GPT. Ewidentnie, mamy już problem. A skoro tak, to pojawia się palące pytanie: czy mamy plan rezerwowy na przyszłość?

 

Posted in:CIONET Poland

No Comments Yet

Let us know what you think

You May Also Like

These Stories on CIONET Poland

Subscribe by Email