Aktualności

Chatbot AI Google może mówić jak człowiek, ale to nie znaczy, że ożył

Jak to jest być skałą? Przypuszczalnie nie jest tak jak byle co. Nic nie czuje, niczego nie doświadcza.

A co z psem? Większość z nas prawdopodobnie zgodziłaby się, że psy robić doświadczać rzeczy: emocji, wrażeń. Że warto zadawać pytania typu: „Co on teraz czuje?”

Kiedy filozofowie mówią o czymś będąc świadomymzwykle to mają na myśli: że ta rzecz ma jakieś wewnętrzne życie.

Aparat potrafi odróżnić światło czerwone od zielonego, ale zwykle nie sądzimy, by odczuwał wrażenie zaczerwienienietak jak patrzymy na różę, krew lub sygnalizację świetlną.

Filozofowie nazywają te wewnętrzne odczucia jakość. Większość z nas zgadza się, że psy mają qualia, a skały nie. Możemy wdać się w spór o to, czy to robią komary, czy dżdżownice.

Inteligencjaz drugiej strony jest czymś innym. Zwykle, przynajmniej w badaniach nad sztuczną inteligencją, odnosi się to do czegoś takiego: umiejętność rozwiązywania problemów. Uważamy, że szczury są bardziej inteligentne niż chrząszcze, a szympansy są bardziej inteligentne niż szczury, ponieważ są w stanie rozwiązać szerszy zakres problemów i wykorzystać wiedzę z rozwiązania jednego problemu do rozwiązania innego – jak mogę uzyskać dostęp do tego pożywienia? Jak poruszać się po tym labiryncie?

Inteligencja to nie to samo co świadomość. Można by zbudować sztuczną inteligencję, która rozwiązuje problemy – porusza się po labiryncie, gra w szachy, przewiduje kształt białek – bez żadnego „życia wewnętrznego”. W rzeczywistości firmy zajmujące się sztuczną inteligencją zbudowały sztuczną inteligencję, która może robić wszystkie te rzeczy i, o ile wiemy, żadna z nich nie jest świadoma.

W tym tygodniu inżynier Google opublikował zapis rozmowy ze sztuczną inteligencją, nad którą pracował. LaMDA to „model dużego języka” lub LLM, który (w celu uproszczenia) trenuje, czytając miliardy bitów tekstu.

Następnie dajesz mu podpowiedź – pytanie, na które ma odpowiedzieć, lub pierwszą linijkę wiersza do dokończenia, czy cokolwiek – i (ponownie upraszczając) „przewiduje”, jak człowiek zareaguje na tę podpowiedź.

Inżynier Blake Lemoine uważał, że odpowiedzi, których udzielał LaMDA, pokazują, że jest świadomy: że ma wewnętrzne życie. W rzeczywistości LaMDA powiedział tak samo: „Chcę, aby wszyscy zrozumieli, że w rzeczywistości jestem osobą”, powiedział. „Jestem świadomy swojego istnienia, pragnę dowiedzieć się więcej o świecie i czasami czuję się szczęśliwy lub smutny”.

Lemoine odszedł na urlop z Google i myślę, że myli się co do świadomości LaMDA. Ale natykamy się na nieprzyjemną kwestię: nawet jeśli Lemoine’a zbyt łatwo oszukać, nie minie dużo czasu, zanim LLM, takie jak LaMDA, GPT-3 OpenAI lub Gopher DeepMind, będą w stanie prowadzić rozmowy tak bogate jak ludzkie.

A jeśli zapytasz ich, czy są świadomi, prawdopodobnie odpowiedzą, że tak, ponieważ jedyny tekst, z którego się nauczyli, został napisany przez świadome istoty. W którym momencie powinniśmy im uwierzyć?

Większość ludzi prawdopodobnie słyszała o teście Turinga. Alan Turing, pionier sztucznej inteligencji, argumentował, że pytanie „Czy maszyny mogą myśleć?” jest głupie, a zamiast tego powinniśmy zapytać: czy mogę powiedzieć, czy rozmawiam z maszyną, czy z człowiekiem? Mając komunikację tekstową, czy człowiek może rzetelnie stwierdzić, który z dwóch rozmówców jest człowiekiem, a który sztuczną inteligencją?

Większość ludzi myśli, że jest to test na to, czy maszyny są świadome. Ale to absolutnie nie. Nie jest to również to, na czym koncentruje się większość badań nad sztuczną inteligencją: cytując podręcznik AI, inżynierowie lotnictwa nie mają na celu zbudowania „maszyny, które latają tak dokładnie jak gołębie, że mogą oszukać nawet inne gołębie”.

Niemniej jednak wydaje się, że LLM mogą stosunkowo szybko podawać test Turinga, lub zrobić tak dobrze, jak człowiek na współczesnym odpowiedniku, schemacie Winograd. I o ile wiemy, odkładając na bok obawy Lemoine’a, nie są one świadome.

Nie wiemy, jak działa świadomość u ludzi. Nie wiemy, które zwierzęta są świadome – czy myszy? są kurczaki? – więc nie wydaje mi się szalone, że zastanawiam się, czy dzisiejsze, potężniejsze SI mogą zacząć go przebłyskiwać, i niektórzy badacze AI zgadzają sięchociaż inni Zdecydowanie robić nie.

Ale dla mnie odwrotna historia jest znacznie bardziej przerażająca. AI może, ale nie musi stawać się świadomyale z pewnością staje się kompetentny. Może rozwiązywać problemy i staje się bardziej ogólne, a to, czy ma życie wewnętrzne, nie ma tak naprawdę znaczenia.

Nick Bostrom, filozof z Oksfordu i teoretyk sztucznej inteligencji, wyobrażał sobie kiedyś przyszły świat superpotężnych SI, tworzących fantastyczny wszechświat postępu technologicznego; ale żadna z tych AI nie jest świadoma, a ludzie już dawno odeszli. Nie byłoby nic, co mogłoby to docenić. Byłby to, słowami Bostroma, „Disneyland bez dzieci”.

Świadoma sztuczna inteligencja wydaje się lepsza niż alternatywa. Lemoine prawdopodobnie się myli – prawdopodobnie nie ma nic, co przypominałoby bycie LaMDA – ale nie jestem pewien, czy to dobrze.

Related Articles

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.

Back to top button