Jak żyć ze sztuczną inteligencją? | Kalejdoskop kulturalny regionu łódzkiego
Proszę określić gdzie leży problem:
Proszę wpisać wynik dodawania:
5 + 6 =
Link
Proszę wpisać wynik dodawania:
5 + 6 =

Jak żyć ze sztuczną inteligencją?

Analizą skutków i możliwych metod zapobiegania negatywnym rezultatom społecznym rozwoju i wdrażania systemów sztucznej inteligencji ma zająć się Grupa Robocza, którą zamierza powołać Jacek Nagłowski, reżyser filmowy, współprowadzący Pracownię VR/AR w Laboratorium Narracji Wizualnych działającym przy Szkole Filmowej w Łodzi. Reżyser jest ostatnio mocno zaangażowany w badanie relacji między człowiekiem i rozwijającą się w błyskawicznym tempie sztuczną inteligencją. W rozmowie opublikowanej na łamach kwietniowego „Kalejdoskopu” opowiadał o przygotowywanym przez siebie doświadczeniu VR pt.: „Conversations”.
Sytuacja zmienia się jednak tak szybko, że Jacek Nagłowski uznał za konieczne uzupełnić rozmowę zamieszczoną w „Kalejdoskopie”. W połowie marca premierę miał udostępniony przez OpenAI (jeszcze za opłatą) model GPT-4, który posiada umiejętność rozpoznawania i interpretacji tekstu i obrazu jednocześnie. Według Nagłowskiego, jeśli przyjąć, że mądrość to, według bardzo prymitywnego, ale powszechnego przekonania, inteligencja plus wiedza, to system ten (GPT-4) posiada ponadprzeciętną inteligencję i wiedzę ogólną niedostępną dla żadnego pojedynczego człowieka. W tym strywializowanym sensie GPT-4 jest już mądrzejsze od każdego człowieka z osobna. Znacząco powiększono okno kontekstowe systemu: obecnie dostępne systemy pamiętają w danym momencie odpowiednik 6 000 słów (8 000 tokenów). Najnowszy wariant modelu GPT-4 pamięta 24 000 słów. Do tej chwili wydawało się, że koszt zwiększania okna kontekstowego rośnie wykładniczo, jednak właśnie znaleziono metodę, która powoduje linearny przyrost kosztów.

Do projektowania rozwoju tych systemów, ich kodowania oraz do projektowania hardware’u, na którym systemy AI operują najbardziej efektywnie używa się tychże samych systemów AI. Do trenowania sztucznej inteligencji używa się systemów AI, które przyspieszyły pracę, obniżyły koszty i zwiększyły efektywność wdrażanych rozwiązań kilkukrotnie w stosunku do systemów projektowanych przez człowieka. Można sobie wyobrazić, że wyposażona w lepszą pamięć sztuczna inteligencja już teraz jest zdolna do poprawnego samodzielnego pisania kodu, poprawiania swoich błędów i dalszego rozwoju – to w perspektywie dni a w najlepszym wypadku tygodni doprowadzi do kolejnego kilkukrotnego przyspieszenia rozwoju i integracji AI - uważa Jacek Nagłowski.

To wszystko dzieje się w kontekście rywalizacji pomiędzy korporacjami i pomiędzy państwami o to, kto szybciej stworzy i wprowadzi najpotężniejsze modele sztucznej inteligencji z ignorowaniem lub redukowaniem zaleceń komisji etycznych, które miały nadzorować rozwój tych systemów. Nagłowski nawiązuje do opublikowanego niedawno listu otwartego przedstawicieli środowisk akademickich, inżynierów, badaczy i przedstawicieli firm rozwijających AI o wprowadzenie co najmniej półrocznego moratorium na budowę najpotężniejszych modeli, aby zyskać choć trochę czasu na oszacowanie skutków i zapobieganie destrukcyjnym zjawiskom związanym z rozwojem sztucznej inteligencji. List został podpisany między innymi przez twórców IBM Deep Mind, Stable Diffusion, Elona Muska, Steve’a Woźniaka czy profesorów zajmujących się AI na MIT, uniwersytetach Stanforda, Berkeley i w większości wiodących placówek na świecie. Wobec istnienia GPT-4 postulat zawarty w liście - uważa Nagłowski - wydaje się pozbawiony sensu, skoro ten system i bez kolejnych iteracji i wersji jest w stanie zwiększać swoje kompetencje w sposób z obecnej perspektywy nieograniczony.

Największym jednak problemem nie jest skala kompetencji coraz nowszych modeli, ale brak jakiegokolwiek przygotowania kulturowego, psychologicznego, instytucjonalnego czy ekonomicznego naszych społeczeństw, na zmiany, które niesie ze sobą wprowadzenie tych potężnych modeli do powszechnego użytku. Pierwsze lęki są najbardziej trywialne, choć nie nieistotne: utrata pracy w różnych zawodach, w których czynności do niedawna uchodzące za kreatywne okazały się być automatyzowalne. Jednak tuż za tym idą znacznie bardziej głębokie niepokoje: jeśli mam w kieszeni dostęp do systemu, którego rozumowanie i wiedza przewyższa moją, to jaki jest sens, żebym podejmował w ogóle jakikolwiek intelektualny wysiłek?

- Nie mamy wpływu politycznego ani ekonomicznego, żeby minimalizować te negatywne procesy - podsumowuje swoje rozumowanie Jacek Nagłowski. - Naiwnością byłoby też sądzić, że wyścig do najpotężniejszej AI zostanie przerwany lub nawet spowolniony. Jedyne, czym dysponujemy, to możliwość kolektywnego myślenia, proponowania możliwych ścieżek rozwiązań, wzajemnej troski i komunikacji. Taki jest cel powoływanej Grupy Roboczej składającej się na razie z przedstawicieli Instytutu Psychologii Polskiej Akademii Nauk, Instytutu Kultury Współczesnej Uniwersytetu Łódzkiego oraz Laboratorium Narracji Wizualnych Szkoły Filmowej.

Bogdan Sobieszek

Kategoria

Wiadomości