5.1. Narodziny kognitywizmu

Metafory na temat umysłu zmieniały się zależnie od epoki:

Starożytna Grecja - umysł jest jak katapulta, napina się i strzela, popatrzcie na dramatyczne napięcia i katharsis.

komputer

Leibniz: umysł jest jak młyn (ale świadomość to substancja prosta).

Babbage: umysł jest jak krosna tkackie.

Freud: umysł jest jak system hydrauliczny, ciśnienie psychiczne powoduje choroby.

Sherrington: umysł to telefoniczna centrala - czym innym mógłby być?

mozg

Wiek XX: umysł podobny jest do komputerowego programu - to podstawowe założenie filozofii kognitywnej.
Wiek XXI: umysł jest jak neurokomputer, układ dynamiczny bez centralnej jednostki.
Dopóki nie będzie neurokomputerów w powszechnym użyciu ta metafora nie będzie szeroko stosowana.

Przy końcu XIX wieku rozwijała się psychologia oparta na introspekcji, ale nie dała wiarygodnych rezultatów.
Psychofizyka: Gustav Fechner, Ernst Weber, Wilhelm Wundt, Ernst Mach, Herman von Helmholtz, i inni fizycy z końca XIX wieku.
Pomimo wielkich wysiłków i opracowania szczegółowych metod analizy doświadczeń wewnętrznych, "strumienia świadomości", nie udało się niczego uzgodnić pomiędzy różnymi laboratoriami, badania nie dawały jednoznacznych wyników.

Pawlow

Początek XX wieku przyniósł entuzjazm dla badania odruchów warunkowych przez Iwana Pawłowa, a w Polsce jego ucznia, Jerzego Konorskiego.
Behawioryzm zrobił z psychologii naukę ścisłą, ale cena była wysoka. Umysł, świadomość, nieobserwowalne czynności poznawcze uznano za nienaukowe, bo nie można ich było badać metodami obiektywnymi. Za uniwersalne i obiektywne prawa nauki uznano natomiast relacje pomiędzy bodźcami i reakcjami.
W filozofii Roman Ingarden wydał książkę "Spór o istnienie świata". Znacznie wcześniej pojawił się spór o istnienie umysłu - czy jest to sensowna koncepcja, czy też wszystko da się wyjaśnić na poziomie odruchów? Czy można było zaprzeczać realności świata wewnętrznego a potem fizycznego?

Watson
John Watson (warunkowanie klasyczne , reaktywne), Burrhus Skinner, Edward Thorndike (odruchy instrumentalne), Edward Tolman (neobehawioryzm), stworzyli nowy paradygmat badań psychologicznych.
Można badać tylko obiektywnie obserwowalne zachowania, a więc zdefiniowane operacyjnie sytuacje eksperymentalne, ale liczba obserwowalnych wielkości musiała być bardzo niewielka by analiza była możliwa.
Zachowanie jest wynikiem uwarunkowania środowiska.

Niestety, dla złożonych form zachowania brak jest prostych, obiektywnych praw. Sądy i przekonania nie dają się zredukować do dyspozycji organizmu do wypowiedzi i działań odruchowych. Brak było w szczególności postępów dotyczących zrozumienia języka, wypowiedzi nie da się sprowadzić do prostych skojarzeń.
Szczególnie bolesna była lekcja automatycznego tłumaczenia i badań nad analizą tekstów w sztucznej inteligencji, pokazując ogromne trudności naiwnego ujęcia behawiorystów. To właśnie lingwistyka i Noam Chomsky, który napisał książkę "Struktury Syntaktyczne" (1957) spowodowały odwrót od behawioryzmu i narodziny kognitywizmu.

Neobehawioryzm (P. Suppes, 1975; Edward Tolman, Clark Hull) dopuścił nieobserwowalne zmienne wewnętrzne, podkreślając centralną rolę bodźca i reakcji, oraz niezależność procesów psychologicznych od uwarunkowań biologicznych i fizjologicznych. Procesy pośredniczące pomiędzy postrzeganiem a reakcjami są ukryte. Teorie zakładające ukryte, nieświadome mechanizmy wywodziły się z psychoanalizy Freuda, ale psychodynamika i inne szkoły psychoterapii nigdy nie były oparte na weryfikowalnych obserwacjach, używały subiektywnych pojęć, które nie dały się obiektywnie zmierzyć ani ocenić.
Behawioryzm został zastąpiony przez "filozofię nauki o zachowaniu" (określaną też jako radykalny behawioryzm Skinnera), a potem kognitywną psychologię i neuronauki. Doprowadził też do rozwoju stosowanej analizy behawioralnej (ABA, applied behavioral analysis) oraz kognitywno-behawioralnej terapii (CBT, Cognitive-behavior therapy) i wielu odmian psychoterapii, które mają dobre podstawy empiryczne.
Model przetwarzania informacji stał się zrozumiały i popularny dopiero dzięki sukcesom informatyki i projektów w zakresie sztucznej inteligencji (artificial intelligence, AI).

Sztuczna Inteligencja

Idee kognitywistyczne rozwinęli eksperci pracujący nad sztuczną inteligencją i psychologią poznawczą.
Zrozumieć znaczy umieć zbudować, dopiero wtedy jesteśmy pewni, że rozumiemy istotne procesy. Inteligentne zachowanie systemów złożonych nie wymaga inteligencji elementów, "duch w maszynie" (a zwłaszcza myśląca substancja) nie jest potrzebny.
Symbol reprezentuje coś innego niż swoją fizykalną formę. Reguły określają znaczenie symboli przez wzajemne relacje (syntaktykę) i ich odnoszenie do świata (nadając im sens intencjonalny).
W tym ujęciu stany umysłowe - myśli, przekonania, percepcja - to stany obliczeniowe maszynerii przetwarzającej informację.

Funkcjonalizm: stany umysłowe mogą być zrealizowane w różny sposób w różnych systemach fizycznych.
Filozofię funkcjonalizmu oprzeć można na trzech ogolnych założeniach:

  1. Stany i procesy mentalne można scharakteryzować przez ich funkcję.
  2. Funkcje określone są przez relacje między wejściami i wyjściami systemu (organizmu), stanami i procesami.
  3. Relacje mają charakter przyczynowo-skutkowy.

Fizyczna realizacja symboli jest drugorzędna, ważne są relacje i przetwarzanie informacji, związki przyczynowe stanów pamięci, wejść (zmysłów) i wyjść (zachowania). Liczy się nie materiał, tylko relacje pomiędzy przyjmowanym stanami, to co rzeczy robią, a nie z czego są zrobione.
Stąd krytyka "szowinizmu węglowego": inteligencja pozaziemska nie musi być oparta na tych samych związkach biologicznych, np. może być oparta na związkach krzemu, które również pozwalają na skomplikowane oddziaływania.
Emulacja, czyli doskonała symulacja jednego systemu (komputera) przez drugi, pokazuje jak różne architektury pozwalają na wykonanie dokładnie tych samych zadań (chociaż szybkość wykonania może się bardzo różnić).
W filozofii określane to jest mianem "wielokrotnej realizowalności" funkcji (multiple realizability).

Funkcjonalistyczny minimalizm: co jest istotne dla zachowania funkcji, a co można odrzucić?
Toczy się nieustająca dyskusja, do jakiego stopnia szczegółowości należy modelować układ nerwowy by zachować procesy istotne dla pracy w mózgu. W tym przypadku funkcje to niższe i wyższe czynności poznawcze oraz sterowanie organizmem.
Odpowiedź zależy od tego, jak bogaty zestaw funkcji chcemy uwzględnić, co już jest warte nazwania umysłem. Mamy tu całe spektrum możliwości, od umysłów prostych zwierząt, ludzi z niedorozwojem mózgu, do w pełni rozwiniętych umysłów filozofów. Spór o nazwy jest tu mało istotny, ważny jest zbiór konkretnych funkcji, które dany mózg może realizować.

W takim ujęciu możemy powiedzieć, że umysł jest funkcją procesów fizycznych przetwarzających informację.
Umysł to algorytmiczny proces realizowany przez organiczny mózg lub równoważny mu funkcjonalnie system sztuczny.

Można metaforycznie powiedzieć, że umysł jest częścią tego, co robi mózg, czyli zbiorem procesów, których rezultaty mogą być świadome. A co znaczy "procesy świadome"? Takie, które dostępne są wewnętrznej percepcji, o których wiemy, że są. Możemy je skomentować, wyrazić w postaci słów lub gestów, skojarzyć z innymi.
Percepcji przez kogo? Przez inne procesy pozwalające na działanie, sformułowanie wypowiedzi itp. Nie ma potrzeby zakładać, że istnieje homunculus ukryty w naszej głowie, umysł jest "społeczeństwem procesów", jak określił to Marvin Minsky w ksiażce "Society of mind" (1986).

Komputacjonizm to teza określana również jako "silne AI" (J. Searle): odpowiednio zaprogramowany komputer jest równoważny umysłowi, ma stany poznawcze.

Przetwarzanie informacji przez mózgi wykracza poza asocjacjonizm, czyli bezpośrednie skojarzenia.
Nie ma tu dualizmu substancji ciała i umysłu, jest tylko proces przetwarzania informacji określający reakcję organizmu.
Oczywiście są jakościowe różnice pomiędzy procesem a jego fizyczną realizacją, np. odczytywaniem bitów z płyty DVD i logiką scen interaktywnej gry; umysł jest na poziomie gry, mózg na poziomie odczytywania bitów i reagowania na nie. Symulowana burza nie zmoczy komputera, jednakże jeśli informacja pochodząca z tej symulacji wprawi w ruch przesycone wilgocią powietrze w komorze do testowania zjawisk atmosferycznych powstanie prawdziwa burza.
Oprócz informacji potrzebny jest więc odtwarzacz, oprócz umysłu potrzebne jest więc ciało, dzięki któremu możemy wyrazić stany umysłowe. Taka analogia jest niedoskonała, bo odtwarzacz nie wpływa na informację, a ciało wpływa na formowanie się umysłu. Zapis nutowy to jeszcze nie muzyka, człowiek grający z nut tworzy muzykę, ale przy okazji zmienia siebie, zapamiętuje melodię, wpływa to na jego sposób grania w przyszłości.

Symbole językowe są elementami dyskretnymi (jest ich skończona liczba i są od siebie wyraźnie odróżnialne), procesy percepcji/działania są ciągłe, trudno jest rozróżnić co już jest innym wrażeniem a co jeszcze tym samym.
Funkcjonalizm zajmuje się wyższymi czynnościami poznawczymi, językiem i rozumowaniem.
Franz Brentano (1874) ożywił scholastyczne koncepcje intencjonalności, czyli odniesienia do treści i sensu.
Intencjonalność systemu: symbole są o czymś, bo istnieje izomorfizm relacji obiektów rzeczywistych i umysłowych. Czy to wystarczy?

Odpowiednia zależność przyczynowa stanów umysłu od stanów świata jest warunkiem koniecznym.
Jak symbole mogą reprezentować coś poza samym sobą?
Problem nabierania znaczenia przez symbole jest ważny dla sztucznej inteligencji. Czy robot, którego rozumowanie opiera się na manipulacji symboli, może naprawdę zrozumieć, jak się te symbole wiążą ze zdarzeniami w świecie. Problem ten został szeroko przedyskutowany w pracach S. Harnada (1990, 1993) i innych autorów (the symbol grounding problem).
Konkluzja tych dyskusji jest taka: znaczenie prostych pojęć wynika z "zagnieżdżenia" w reprezentacjach somatosensorycznych, pozwalających na sterowanie organizmem. Rozumienie znaczenia symboli związane jest z możliwościami działania, odczuwania, informacjami związanymi z naszymi zmysłami i manipulowaniem swoim ciałem i przedmiotami.

Funkcjonalizm uznaje umysł za algorytmiczny proces przetwarzania informacji.
Sztuczny umysł wymaga ogromnych baz wiedzy, metod reprezentacji i korzystania z wiedzy. System ekspertowy CYC jest próbą realizacji zdrowego rozsądku w oparciu o miliony reguł. Czy takie systemy komputerowe symulują jedynie inteligentne działanie czy naprawdę mają jakieś stany poznawcze? Czy można powiedzieć, że "zdają sobie sprawę" z tego co robią?

5.2. Argumenty Turinga

Turing Alan Turing (1912-1954)

Alan Turing, twórca teorii automatów, matematycznych podstaw teorii obliczeń, w pracy z 1936 roku podał teoretyczny model komputera („automatu Turinga”), czyli komputerów, które teraz powszechnie używamy. Prowadził rozważania nad obliczalnością, był też zaangażowany w budowę maszyn liczących i deszyfrujących. Historycy oceniają, że dzięki zbudowanej pod jego kierunkiem maszynie odczytującej kod Enigmy (polscy kryptolodzy, Marian Rejewski, Henryk Zygalski oraz Jerzy Różycki, mieli tu również wieli wkład) wojna trwała o ponad rok krócej.
Jedną z najważniejszych w historii nauki idei jest pomysł Turinga, że z prostych elementów, działających mechanicznie i bez żadnego celu, może wyłonić się złożone, inteligentne zachowanie. Kilku programistów, z których każdy rozwija mały programik i nie rozumie całości, może stworzyć program, który zwycięży z mistrzem świata w szachy. Nikt z twórców nie ma wysokich kompetencji w tej grze, podobnie jak żaden termit nie wyobraża sobie, że buduje wielki kopiec. Zrozumienie nie jest konieczne by stworzyć plan budowy, może się on wyłonić z interakcji prostych elementów. Marvin Minsky napisał książkę "Society of mind" (1986) pokazując jak z wielu prostych funkcji, które nazwał "agentami", może powstać inteligentny umysł.

W artykule "Computing Machinery and Intelligence" opublikowany w czasopiśmie "Mind" w 1950 roku Turing uznał pytanie "czy maszyny mogą myśleć?" za zbyt mało precyzyjne. Trudno jest jednoznacznie zdefiniować pojęcie "maszyna" i "inteligencja", dlatego zaproponował praktyczny test na określenie inteligencji. Zamiast powtarzać, że nie rozumiemy czym jest świadomość lub inteligencja i zajmować się próbą definicji pojęć należy zdefiniować pojęcia operacyjnie, mówić o konkretach. Trzeba określić test dający jednoznaczne wyniki, co ma zrobić maszyna by uznać ją za inteligentną lub świadomą.

W oryginalnym teście Turinga biorą udział 3 osoby. A próbuje zmylić pytającego tak, by nie zgadł jego lub jej płci, a B ma za zadanie pytającemu pomoc. Jeśli rolę A będzie grać maszyna, czy pytający będzie się równie często mylić?
Obecnie przez "test Turinga" rozumie się zwykle próbę zmylenia rozmówcy, udawania przez program komputerowy w czasie konwersacji, że jest człowiekiem.

Od 1991 roku odbywają się zawody z programami do konwersacji (chatbotami) organizowane w ramach konkursu o nagrodę Loebnera. Sędziowie prowadzą kilkuminutową konwersację z człowiekiem lub maszyną i następnie przypisują im punkty. Sędziowie są przypadkowi i dlatego trudno jest porównać rezultaty z różnych lat. Postępy w tym konkursie przez wiele lat były powolne, ale ostatnie prace nad analizą tekstów w języków naturalnym powinny przyspieszyć rozwój takich systemów. Doniesienia prasy, że jakiś chatterbot przeszedł test Turinga bo na wsi w Indiach oszukał dużą grupę ludzi, którzy nie mieli dotychczas do czynienia z taką technologią, nie mają żadnej wartości.
Czy test Turinga wystarczy by uznać, że maszyna jest inteligentna i ma umysł podobny do ludzkiego?

Turing był przekonany, że do 2000 r. będą myślące maszyny o pamięci rzędu 100 MB które przejdą taki 5-minutowy test. Postępy w sztucznej inteligencji były początkowo szybkie i wydawało się, że wystarczy szybszy komputer i większa pamięć by powstały inteligentne maszyny. W połowie lat 1960 już tak nie myślano, zbyt wiele ambitnych projektów poniosło klęskę. Zrozumienie złożoności procesów poznawczych stopniowo rosło i informatycy zaczęli się interesować psychologią poznawczą a potem neurobiologią, tworząc coraz bardziej złożone systemy kognitywne. Chociaż zrobiono wielkie postępy, to możliwości stworzenia myślących maszyn dorównujących ludziom są nadal uważane za kontrowersyjne.
Turing w swojej pracy omówił szereg zarzutów przekonując, że zaproponowany przez niego test wystarczy dla uznania, iż mamy do czynienia z rzeczywistym myśleniem.

1. Zarzut teologiczny: myślenie jest funkcją nieśmiertelnej duszy a tej maszyna mieć nie może.
Odp. Turinga: nie można tego zarzutu poważnie traktować.
Odp. teologa (J. Życiński): Bóg może wszystko, skąd my możemy wiedzieć, co maszyna mieć może?
Wersja współczesna to poszukiwanie niematerialnych wpływów umysłu na mózg, np. psychony wokół dendronów, wymyślone przez Johna Ecclesa. Jednak nie znaleziono żadnego śladu takich zjawisk, a argumenty i eksperymentalne dowody pokazujące jak procesy zachodzące w mózgu wywołują stany mentalne są obecnie trudne do podważenia.

2. Lepiej schować głowę w piasek bo konsekwencje powstania takich maszyn będą straszne (przede wszystkim dla naszego antropocentryzmu?).
Strach przed "terminatorem" jest w różnej formie często spotykany, odpowiedzialny za popularność poglądów przeciw rozwojowi sztucznej inteligencji i przekonanie o nadchodzącej wojnie z robotami.
Efekty takiego myślenia to różne konfabulacje i strach, ale też przekonanie o beznadziejności badań nad umysłem, nadzieje na to, że problem nigdy nie zostanie zrozumiany (np. Turski 1996). Szachiści przez lata wyśmiewali programy komputerowe do gry w szachy, aż do przegranej Kasparowa z systemem komputerowym Deep Blue (1997). Podobnie było z grą w go, która miała się opierać dominacji maszyn przez kolejne 100 lat.

3. Zarzut matematyczny opiera się na twierdzeniu Gödla, Churcha, jak i samego Turinga o zdaniach nierozstrzygalnych.
Co jakiś czas zarzut ten powraca w innej formie (por. "Nowy umysł cesarza" R. Penrose). Rezultatem jest wniosek, że jeśli ludzie potrafią rozwiązywać problemy nierozstrzygalne to umysł nie działa w sposób, który można ująć w postaci algorytmu. Konieczna jest nowa fizyka procesów nieobliczalnych, mikrotubule a może i kwantowa grawitacja.

Turing odpowiedział, że człowiek też się myli, konkretna maszyna tak jak i konkretny człowiek nie odpowie na wszystkie pytania, ale jeśli rozważyć wszystkie możliwe maszyny nie ma takich ograniczeń.
Ograniczenia umysłu człowieka, związane z pojemnością pamięci roboczej, pamięci długotrwałej, szybkości działania, skończonego czasu życia, zdolności do skojarzeń itp. są dużo silniejsze niż ograniczenia maszyny Turinga! Z powodu tych ograniczeń umysł musi sobie radzić ciągle się ucząc, tworząc hierarchię coraz bardziej złożonych konstrukcji. Nie używamy ustalonego algorytmu, ale dostosowujemy swoje działania w zależności od sytuacji. To samo jednak robią teraz również programy sztucznej inteligencji, tylko szybciej, kojarząc więcej faktów, lepiej pamiętając.
Argumenty matematyczne dotyczą jedynie systemów z logiką klasyczną. W sztucznej inteligencji używa się nietradycyjnych logik, pozwalających radzić sobie z wiedzą sprzeczną, proceduralną lub niepełną, a także systemów uczących się na podstawie danych empirycznych, nie działających w oparciu o logikę. Nie stosuje się do nich twierdzenie Gödla.
Wiele odkryć było sprawą przypadku. Maszyny mają całkiem inne ograniczenia niż ludzie, ale też zdolne są do robienia odkryć, u podstaw których leży przypadek i rozumowanie. Obliczenia wykorzystujące przypadek, czyli generowanie rozwiązań zgodnie z procedurą Monte Carlo, mają obecnie bardzo liczne zastosowania.
Ograniczenia związane z twierdzeniami o nierozstrzygalności dotyczą bardzo specyficznych pytań związanych z konstrukcją samego systemu logicznego. Czy są to jednak interesujące pytania dla sztucznej inteligencji czy robotów, mających działać w inteligentny sposób? Tego nikt nie pokazał.
Wniosek z matematycznych argumentów krytykujących możliwości maszyn: nie można stworzyć maszyny wszechwiedzącej.

robot

4. Świadomość, emocje, uczucia to rzeczy niedostępne maszynom.
Po przegranej Kasparowa pisano, że komputer szachowy Deep Blue nawet nie potrafi się cieszyć z wygranej!
W filozofii umysłu takie zarzuty zostały sformułowane w 1995 roku w pracy Dawida Chalmersa i znane są pod nazwą trudnego problemu świadomości, wkrótce omówimy go dokładniej.
Turing: o umysłach innych ludzi wiemy tylko z obserwacji, więc jeśli program przejdzie test i nie uznamy, że myśli, pozostanie nam tylko solipsyzm. Ten pogląd został zaatakowany za pomocą eksperymentu myślowego z "chińskim pokojem", który też dokładnie przedyskutujemy.

Reakcje emocjonalne są znacznie prostsze niż rozumienie pojęciowe świata. Roboty ich nie miały bo nikt się tym nie zajmował, ale od końca 20 wieku to się zmieniło. Powstała dziedzina nazywana informatyką afektywną . W 2006 roku pionier sztucznej inteligencji Marvin Minsky wydał książkę Emotion Machine. Oczywiście nie chcemy robotów wpadających w histerię lub wściekłość, ale emocje z wielu względów będą im potrzebne. Na rynku już są roboty mające analizować emocje i reagować emocjonalnie, przydatne w terapii różnych zaburzę afektywnych.

5. Argumenty dotyczące różnych niemożliwości.
Maszyny nie są zdolne do: samodzielnej inicjatywy, humoru, zakochania się, rozkoszowania lodami ...
Czyli maszyna jest głupia (jak każdy widzi) i już zawsze taka być musi? Są to błędne generalizacje doświadczeń z obecnie istniejącymi maszynami.
Pamięć, liczenie, rozumienie mowy, ekspertyza, wszystko to co robią obecnie maszyny rutynowo były kiedyś nie do wyobrażenia. Kiedy pojawiły się pierwsze fonografy wielu ludzi szukało pod stołem ukrytego człowieka wydającego dźwięki mowy.
Nie jesteśmy ani zbyt głupi by stworzyć inteligentne maszyny, ani aż tak mądrzy by zrobić to w krótkim czasie ...

6. Maszyna sam nie może nic stworzyć.
Teraz już może!

Kreatywność maszyn jest od niedawna ważnym zagadnieniem w sztucznej inteligencji. Przeceniamy kreatywne zdolności większości ludzi. Nawet Albert Einstein napisał o sobie: człowiek nie widzi rozwiązania dopóki się o nie nie potknie.
Odkrywanie wiedzy w danych (data mining) i systemy ekspertowe odkrywające nowe rozwiązania znane są od dawna, są patenty na procesy przemysłowe odkryte za pomocą algorytmów. W szachach, matematyce, a nawet malowaniu obrazów czy komponowaniu muzyki osiągnięto interesujące rezultaty.
Dlaczego maszyna nie mogłaby mieć pamięci, uczyć się i kojarzyć faktów, aktywnie szukać nowej wiedzy? Czy jakieś prawo przyrody tego zabrania? Czy też nasze wrażenie wynika z tego, że nie widujemy jeszcze takich maszyn?
Przykłady rozwiązywania problemów przez komputery wykorzystujące algorytmy ewolucyjne, oraz referat na temat neuroestetyki.

Maurice Conti, The incredible inventions of intuitive AI, czyli niewiarygodne wynalazki intuicyjnej sztucznej inteligencji (TED).

7. Układ nerwowy nie działa w sposób dyskretny, a więc opisywalny za pomocą skończonej liczby symboli, na których operują komputery.
Ten zarzut wiąże się z pytaniem, czy inteligencja wymaga modelowania procesów neuronowych bardzo dokładnie, na poziomie pojedynczych molekuł, czy też uproszczone biofizyczne modele neuronów wystarczą? Zwykle przy modelowaniu układu nerwowego interesują nas dyskretne impulsy wysyłane przez neurony, a często tylko ich liczba w jednostce czasu (rate coding). Możliwe są bardzo dokładne aproksymacje zachodzących w mózgu procesów, ale nie muszą wcale być konieczne by wytworzyć funkcje umysłowe, np. pamięć kontekstowa pojawiają się w stosunkowo prostych modelach.
Analogowe komputery zostały wyparte przez wygodniejsze komputery cyfrowe, ale buduje się obecnie analogowe systemy neuromorficzne zużywające bardzo mało energii i nadające się do budowy neurokomputerów, w których parametry również nie zmieniają się w dyskretny sposób.

8. Zachowanie człowieka nie da się opisać przy pomocy reguł.
Zachowanie wielu programów również jest zbyt złożone by je opisać za pomocą reguł! Nawet jeśli program był złożonym zbiorem reguł, nie da się tego wykryć na podstawie samej obserwacji zachowania. Turing gotów był się założyć, że nikt obserwując działanie programu nie zgadnie reguł sterowania, które zaprogramował.
Algorytmy stochastyczne i probabilistyczne rozwiązują zagadnienia zbyt trudne dla algorytmów deterministycznych. Nie spodziewamy się, by systemy regułowe były dobrymi modelami umysłu, architektury kognitywne nie muszą być oparte na regułach (przykłady opisane są np. w tej pracy).

paranormal

9. Argument związany z postrzeganiem pozazmysłowym.
Turing uznał ten argument za warty wzmianki ze względu na doświadczenia z telepatią i kartami Zenera, o których było w jego czasach głośno w prasie, ale od 1950 roku nie widać tu postępu.
Nawet jeśli zjawisko istnieje, to jest tak trudne do wykrycia, że jest zbyt subtelne, nie może więc mieć wpływu na zwykłe myślenie.

Należy rozróżnić abstrakcyjne możliwości przetwarzania informacji od własności sprzętu realizującego ten proces.
Użyteczna analogia: umysł tak się ma do mózgu jak program do komputera.
Z jednej strony mamy sprzęt (hardware, materię), z drugiej strony program (software, abstrakcyjne procesy, formę), realizowany przez sprzęt.
Czy umysł można uznać za rodzaj programu komputerowego? Co to naprawdę znaczy?
Program komputerowy zapisuje w sposób abstrakcyjny procesy sterujące sprzętem, w tym sensie każdy proces można opisać za pomocą programu. Ale program to nie jest jeszcze proces! Dopiero program + architektura wykonująca ten program (np. robot) tworzy właściwy proces. Program to nie tylko reguły ale również wiedza zwarta w dostępnych strukturach danych.

Test Turinga to warunek konieczny, ale czy wystarczający by uznać program za umysł?
Wygrana programu IBM Watson w grę Jeopardy pokazuje, że maszyna może sensownie odpowiadać na złożone pytania i w opinii wielu pewnie zachowywać się w czasie konwersacji podobnie do człowieka. Czy jednak ta maszyna coś rozumie? Czy samo kojarzenie faktów pozwala uznać, że mamy jakieś stany poznawcze?
Uznanie, że mamy do czynienia z sztuczną inteligencją, nie oznacza jeszcze, że jest to system świadomy, który może sobie z czegoś "zadawać sprawę" i mieć związane z tym wrażenia. To temat dalszych rozważań.

Alan Turing jest uważany za ojca informatyki, współczesne komputery to realizacja idei "maszyny Turinga". Historycy uważają, że dzięki pracy Turinga nad rozszyfrowaniem kodu Enigmy II wojna światowa trwała o dwa lata krócej. W złamaniu kodu pomogła początkowo polska grupa matematyków, przechwycenie wczesnego modelu Enigmy, zbudowanie jednego z pierwszych komputerów do łamania kodów (Colossus), i późniejsze zdobycie 5-wirnikowego modelu, jednakże stworzenie programu, który w ciągu jednej doby pozwalał odszyfrować przesyłane wiadomości było głównie zasługą Turinga.
Niestety w 1952 roku Turing przyznał się do homoseksualizmu, za co groziło więzienie lub chemiczna kastracja. Podawano mu estrogen, urosły mu piersi i po dwóch latach takiej kuracji prawdopodobnie popełnił samobójstwo. W 2009 roku Gordon Brown, premier Wielkiej Brytanii, przeprosił za to nie tylko Turinga, ale również 49 tysięcy Brytyjczyków, których potraktowano tak samo. Dopiero przy końcu 2013 roku na skutek powszechnej petycji królowa brytyjska ułaskawiła Alana Turinga.

5.3. Funkcjonalizm

Funkcjonalizm to teoria filozoficzna, na której w znacznej mierze opiera się kognitywistyka.
Podstawy filozoficzne funkcjonalizmu stworzyli Hilary Putnam, Jerry Fodor, Zenon Pylyshyn, a jego ujęcie od strony sztucznej inteligencji Allen Newell i Herbert Simon.

Pojęcia mają precyzyjne znaczenie tylko w obrębie teorii. Tybetańscy filozofowie, pytani o definicję świadomości, odpowiadali - ale według jakiej filozoficznej szkoły?
W ramach teorii Newella i Simona podać można precyzyjne definicje pojęć dotyczących umysłu (Newell, 1990).
Umysł to system kontrolny określającym zachowanie organizmu w oddziaływaniach ze złożonym środowiskiem.
Na umysł składa się zbiór funkcji określających odpowiedzi organizmu na sytuacje środowiska. Odpowiedzi różnią się zależne od stanu środowiska jak i indywidualnej historii danego umysłu. System kontrolny realizuje cele, a to wymaga wiedzy. Umysł jest więc system kontrolnym posiadającym cele i wykorzystującym wiedzę.

Częstą pomyłką jest porównywanie różnych systemów na różnym poziomie, np. twierdzenie, że komputer liczy, a mózg "wie".
A może jest odwrotnie? Komputer pisze (zamienia głos na tekst), a neurony w mózgu tylko zliczają impulsy ... Komputer reaguje natychmiast, a mózgi potrzebują sporo czasu na zliczanie impulsów. Od razu widać, że coś tu mylimy.
Zachowanie może być opisywane przez intencje, cele, wiedzę. Poziom intencjonalny to opis systemu działającego w oparciu o wiedzę. Porównajmy sztuczne systemy oparte na wiedzy i biologiczne na jednakowych poziomach:


System sztuczny Człowiek

Poziom:Obwody scaloneBiochemiczny
Substrat:Atomy i elektrony półprzewodnikówNeurocząsteczki
Prawa:Fizyka ciała stałegoFizyka molekularna

Poziom:Obwody elektryczneNeurony
Substrat:Napięcia/prądy/zjawiska elektryczneZjawiska elektryczne
Prawa:Prawa Ohma, Kirchoffa, FaradayaPrawa Ohma, Kirchoffa, Faraday

Poziom:Architektura sprzętowaPrzetwarzanie sygnałów
Substrat:Obwody logiczneFunkcjonalne grupy neuronów
Prawa:LogikaNeurofizjologia

Poziom:Uniwersalny komputerMózg
Substrat:Ciągi bitówImpulsy elektryczne
Prawa:Teoria obliczeńWynikające z ewolucji

Poziom:Systemy oprogramowaniaZachowania wyuczone, obyczaje
Substrat:Struktury danych i programyTransformacje sensomotoryczne
Prawa:Interpretacja syntaktyczna instrukcjiDynamika złożonych układów

Poziom: Systemy przetwarzające wiedzę Umysły
Substrat:      Wiedza Świat wewnętrzny
Prawa:Zasady racjonalnego działania Prawa psychologii

Systemy Oparte na Wiedzy (SOW) są matematyczną abstrakcją. Systemy ekspertowe (SE) wykorzystujące różne formy reprezentacji wiedzy do rozumowania są ich aproksymacją.
Jeśli nowy fakt nie zmieni bazy wiedzy SE, bo już jest w niej w jakiejś formie zawarty, można sensownie powiedzieć: "ten SE już to wiedział". Czy w tym przypadku "wie" to tylko metafora językowa, czy coś więcej?
Wiedza w SOW to przekonania i założenia, niekoniecznie prawdziwe, bo oparte na obserwacjach empirycznych a nie abstrakcyjnych założeniach matematycznych. Rozumowanie w oparciu o tą wiedzę może być oparte na różnych rodzajach logiki.
John McCarthy, jeden z twórców AI, napisał, że nawet termostaty mają przekonania "za gorąco", "za zimno". To oczywiście skrajny przykład, bo termostat nic nie wie i automatyczne zachowania nie mają charakteru przekonań. Można sobie jednak wyobrazić coraz bardziej złożone urządzenia lub organizmy, których zachowanie w coraz większym stopniu będziemy interpretować jako posiadanie przekonań. Kleszcz, który czeka miesiącami reagując tylko na temperaturę i poziom kwasu mlekowego, zachowuje się niemal jak termostat. Pies ma oczekiwania, a zachowanie szympansa ma wszystkie cechy wewnętrznych przekonań, które można mu przypisać.

Reprezentacja wiedzy wymaga odpowiedniego substratu, zachowującego relacje pomiędzy wzorcami w systemie sztucznym a rzeczywistymi, reprezentowanymi obiektami. Reprezentacja wiedzy to zakodowana informacja, często w postaci symbolicznej, lub schematu obrazkowego (rep. ikonograficzna). symbol

Symbol to klasa abstrakcji wszystkich znaków, które reprezentują to samo.
Fizyczny system symboliczny realizuje uniwersalny model obliczeń. Taki system musi zawierać pamięć, operacje działające na strukturach symbolicznych i procesy interpretujące (I/O).
Systemy symboliczne aproksymują możliwości Systemów Opartych na Wiedzy.
Semantyka pojęć pierwotnych jest wynikiem oddziaływania systemu ze środowiskiem. Sens zawarty jest w wskazywaniu na klasy lub indywidualne obiekty i związanych z nimi możliwościach działania. Dla symboli nie związanych bezpośrednio z percepcją i działaniem sens wynika z działania "wewnętrznego", wskazywaniu na klasy lub indywidualne pojęcia pierwotne.

SOW oddziałuje ze środowiskiem, jego reakcje tworzą opis zachowania się systemu. SOW podejmuje działania by spełnić swoje cele korzystając z posiadanej wiedzy.
Komputery umożliwiają realizację modeli SOW, ale w podejściu funkcjonalnym nie muszą to być komputery oparte na elektronice. Dawniej były komputery lampowe, ale im bardziej złożone obliczenia tym bardziej złożona musi być struktura sprzętu, na którym można je prowadzić. W przyszłości możemy mieć komputery optyczne lub bioorganiczne.

symbole

Fizyczny system symboliczny to:

  1. zbiór fizycznych desygnatów symboli, które
  2. podlegają manipulacjom za pomocą wewnętrznych reguł,
  3. reguły te są również ciągami fizycznych desygnatów symboli.
  4. Transformacje symboli zależne są jedynie od ich formy, a nie treści i
  5. transformacje są złożeniem kombinacji różnych reguł.
  6. Symbole mogą być proste (atomowe) lub złożone (molekularne),
  7. a reguły ich rozpoznawania i łączenia muszą być "semantycznie interpretowalne".

SOW składające się z symboli i reguł, które pozwalają na ich transformacje, jest więc zbiorem jakichś fizycznych struktur, które przyjmują różne formy odpowiadające symbolom; "fizyczne" oznacza tu, że mogą to być rozkłady pobudzeń neuronów, lub aktywacje elektronicznych elementów, a nie abstrakcyjne formuły.

Semantyczna interpretowalność jest to własność całego systemu, pozwalająca określić sens symboli przez wskazanie ich wzajemnych powiązań oraz powiązań z tym, co jest przez nie symbolizowane.
Wiedział to już Ferdinand de Saussure, twórca językoznawstwa, pisząc "Żadne słowo nie ma sensu, który dałby się zidentyfikować niezależnie od kontekstu, w którym się znajduje".
Złożone reguły gramatyczne powstają z najprostszych (Fodor nazywa to "kompozycyjnością"). Transformacje symboli da się rozłożyć na reguły najprostsze (Jerry Fodor nazywa to "dekompozycyjnością"). Jedynie takie systemy są semantycznie interpretowalne i "symboliczne".
Nie oznacza to, że system symboliczny będzie sam z siebie automatycznie dokonywał interpretacji, musi być częścią odpowiedniej architektury poznawczej, kontrolującej analizę wypowiedzi. Kombinatoryczna produktywność oznacza zdolność do tworzenia nieskończenie wielu kombinacji elementów.

Łańcuchy symboli tworzą myśli, nastawienia, intencje i instrukcje działania. Niezależność od implementacji (te same procesy mogą być w rózny sposób realizowane) oznacza autonomiczność poziomu symbolicznego. Inne poziomy organizacji widać tylko jako skutek błędów w działaniu (wynik uszkodzeń mózgu lub błędów programu).
Jednak nie jest wcale jasne, że na poziomie symbolicznych transformacji da się kontrolować wszystkie skojarzenia tak, by stały się podobnie do naturalnych. Być może dopiero reprezentacja w sieciach neuronowych pozwoli na osiągnięcie podobnych skojarzeń.
IQ Test

Co to jest inteligencja? Możemy teraz zdefiniować to pojęcie w obrębie teorii systemów opartych na wiedzy.
Iloraz Inteligencji IQ (Intelligence Quotient) to liczba mająca ocenić poziom inteligencji wynikający ze sprawności rozwiązywania testów inteligencji.
Skąd jednak pomysł, że inteligencja, rozumiana jako zdolność do rozwiązywania różnych problemów, da się zmierzyć za pomocą jednego współczynnika? Ogólny czynnik inteligencji g jest konstrukcją psychologiczną mającą wyjaśnić korelację wyników różnych testów psychometrycznych; osoby uznawane za inteligentne mają dobre wyniki w testach różnego rodzaju.
Czynnikiem za tym stojącym jest sprawnie działający mózg, ale sprowadzanie wszystkiego do jednego wymiaru jest dość drastycznym uproszczeniem.
Pierwsze testy IQ (Binet-Simon, 1905) używane były do oceny zdolności werbalnych w szkole w celu identyfikacji dzieci zapóźnionych w rozwoju. Rozkwit testów IQ nastąpił pod wpływem eugeniki w USA na początku XX wieku.

Teoria inteligencji wielorakiej rozwijana przez Howarda Gardnera wyróżnia 8 różnych aspektów inteligencji, stanowiących predyspozycje do różnego rodzaju zawodów:

  1. ruchowo-kinestetyczna: tancerzy, aktorów, chirurgów, adeptów sztuk walki;
  2. interpersonalna (społeczna): polityków, sprzedawców, nauczycieli;
  3. językowo-werbalna: prawników, dziennikarzy, pisarzy;
  4. logiczno-matematyczna: naukowców, matematyków, inżynierów;
  5. wzrokowo-przestrzenna: architektów, artystów;
  6. muzyczna: muzyków, kompozytorów;
  7. intrapersonalna: filozofów, psychologów;
  8. przyrodnicza (relacji z otoczeniem): ogrodników, rolników, naturalistów.

Można też mówić o inteligencji emocjonalnej, moralnej, duchowej i innych formach inteligencji. W każdym z tych przypadków nie wystarczy sama zdolność do kojarzenia, ale liczy się też sprawne działanie zmysłów, pamięci, orientacji przestrzennej, zdolności manualnych. Trudno być inteligentnym tancerzem jeśli nie ma się poczucia rytmu.

Warianty filozofii kognitywnych

Fizykalizm to jedno z głównych założeń neopozytywizmu: pełny opis zjawisk możliwy jest za pomocą języka fizyki, mierzalnych, intersubiektywnie uzgodnionych wielkości.

Psychofunkcjonalizm, opisał głównie Jerry Fodor w książkach "The language of thought" (1975), "Psychosemantyka" (1987). Podstawowe założenia tej teorii to:

  1. Stany psychologiczne (mentalne) to stany mózgu rozumiane jak procesy obliczeniowe, realizowane przez odpowiadające im procesy fizyczne.
  2. Modelem uniwersalnego komputera jest maszyna Turinga, abstrakcyjny model urządzenia realizującego algorytmy obliczeniowe.
  3. Maszyny są sobie równoważne gdy końcowe stany ich obliczeń są identyczne.
  4. Realizacja fizyczna sposobu obliczeń jest nieważna, istotny jest wynik.
  5. Na poziomie funkcjonalnym możemy twierdzić, że komputery są przekonane, "wierzą", że 2+2=4.
  6. To co dzieje się w mózgu na poziomie neurofizjologicznym słabo wpływa na nasze przekonania (dopóki wszystko jeszcze działa).
  7. Tym samym stanom psychicznym odpowiadać mogą różne stany mózgu (zbiór różnych stanów mających podobne funkcjonalne znaczenie).

Teoria identyczności i typów (identity theory), określana jako reduktywny materializm, teoria identyczności typów, teoria identyczności umysłu lub mózgu-umysłu głosi, że określony typ stanów umysłowych jest identyczny z określonym typem stanów neurofizjologicznych.
Z psychofunkcjonalizmu wynika, że istoty o różnych mózgach powinny mieć różne umysły, różnice budowy sprzętu mają wpływ na procesy realizowane przez ten sprzęt.
Stany psychologiczne zależą od relacji pomiędzy stanami mózgu (lub ogólnie sprzętu obliczeniowego), koniecznymi do ich realizacji, ale nie są z nimi tożsame.
Stany umysłu dają się charakteryzować przez zależności typu bodziec-reakcja (behawioryzm) poszerzone o stany wewnętrzne, które nie mają bezpośredniego odzwierciedlenia w zachowaniu (ale mogą być widoczne w obrazowaniu mózgu).
Teoria typów uznaje odpowiedniość typów, stanu psychologicznego i stanu fizycznego.

Możliwe relacje odpowiedniości mentalno-fizycznej.

Anomalny monizm zwraca uwagę na trzy istotne zasady:

Przypisuje się tu stanom mentalnym status ontologiczny podobny jak obiektom fizycznym, a wszystko świadczy o tym, że stany fizyczne mózgu poprzedzają stany mentalne.
Coraz lepiej rozumiemy prawa psychofizyczne rządzące relacjami pomiędzy stanami mentalnymi a zdarzeniami w mózgu.

Metodologiczny solipsyzm (Fodor 1980): tworząc teorię umysłu istnienie świata zewnętrznego można pominąć.
Do świata zewnętrznego dostęp mamy tylko przez wiedzę i przekonania. Jednak przekonania to wynik oddziaływań ze środowiskiem, częściowo zinternalizowany świat zewnętrzny. Czy można je po prostu zaprogramować, czy muszą rozwijać się w naturalny sposób? To dyskusja nadal aktualna w środowisku robotyki kognitywnej i rozwojowej.

Naturalistyczny indywidualizm (Pylyshyn 1980) krytykuje metodologiczny solipsyzm.
Główna trudność: nie istnieje obiektywny, pozbawiony interpretacji symboliczny opis formalny obiektów fizycznych. Ponieważ te same stany funkcjonalne mogą być rezultatem różnych stanów fizycznych nie można wnioskować o stanach funkcjonalnych z samych obserwacji fizycznych. Dopiero obserwacja działania organizmu w środowisku pozwala przypisać znacznie semantyczne stanom informacyjnym, przypisać im określone funkcjonalne znaczenie, dodać do nich fonologiczne etykiety, czyli przedstawienia symboliczne. Te przedstawienia symboliczne są oparte w znacznej mierze na wrażeniach wzrokowych, które analizuje teoria "wizualnych indeksów" Pylyshyna, określana akronimem FINST.

Hipotezy składające się na FINST dotyczą sposobu indeksacji ważnych cech i całych obiektów, pozwalających na użycie tych cech w procesach rozpoznawania obiektów i myślenia o nich. Na początkowym etapie analizy mózg wybiera kilka (4-6) tokenów, elementów wizualnych, które są istotne dla odróżnienia elementów oglądanej sceny i określenia relacji przestrzennych tych elementów. Tworzone są "indeksy" symboliczne dla tych elementów, pozwalających odwoływać się do nich na dalszych etapach analizy zmieniającego się obrazu. Te indeksowane elementy stają się celem dla określania kierunku spojrzenia i innych działań ruchowych.

indeks wizualny

Ataki na funkcjonalizm: czy takie wrażenia jak smak czekolady, albo oglądanie zachódu Słońca, mogą być dostępne sztucznym umysłom?


Problem jakości wrażeń, zwanych po łacinie "qualia" (łac. "qualis", jakiego rodzaju), czyli przeżywania stanów fenomenalnych, omówiony zostanie dokładniej w dalszej części wykładu.
Przekonania mogą sprowadzać się do relacji i predyspozycji, ale qualia mają być własnościami wewnętrznymi umysłu, z natury rzeczy być nieobserwowalne i pozbawione przyczynowych skutków. Funkcjonalnie identyczne stany mogą się więc różnić jakościami wrażeń; nie ma to żadnego znaczenia dla sztucznej inteligencji, ale może mieć dla rozumienia natury umysłu.
Czy jednak rzeczywiście możliwe są różnice niefunkcjonalne stanów umysłowych, w których występują jakości, i stanów ich pozbawionych? Czy np. możliwe jest istnienie filozoficznego zombi, zachowującego się pod wszystkimi względami identycznie jak człowiek, ale pozbawionego wrażeń? Opinie na ten temat są wśród filozofów zróżnicowane a wśród neuronaukowców w większości negatywne.
Problem jakości wrażeń jak i omówiony poniżej problem chińskiego pokoju to obecnie ostatnia nadzieja obozu zwolenników metafizycznych aspektów umysłu.

Jakie rozwiązanie problemu ciała i umysłu będzie więc zadowalające? Dla mnie takie:

  • Bez określenia o jakiego rodzaju umysł chodzi, jakie ma mieć dokładnie własności, nie wiemy, o czym mówimy!
  • Umysły zwierząt i ludzi możemy uznać za niematerialne, bo mamy potencjalnie nieskończenie wiele procesów, które mogą w mózgach powstać, dających się opisać za pomocą algorytmów, a algorytmy są niematerialne.
  • Umysły, podobnie jak algorytmy, wymagają odpowiedniej architektury sprzętowej by możliwa była ich realizacja, by powstały stany mentalne lub obliczeniowe.
  • Mózgi są taką architekturą o odpowiednim stopniu złożoności, a możliwe stany neurofizjologiczne powstają w nich bo jest to dostatecznie złożony substrat by powstały w nim stany mentalne.
  • Myślenie jest tylko z grubsza równoważne przetwarzaniu informacji, które można opisać za pomocą manipulacji symbolami.
  • Symbol nie jest w mózgu ciągiem liter, ale konfiguracją pobudzeń dużego zbioru neuronów, wzorcem stanowiącym prototyp stanu mózgu związanego z danym pobudzeniem.
  • Różne mózgi tworzą różne umysły, zarówno sztuczne jak i naturalne; co trzeba koniecznie pozostawić w symulacji a co można pominąć, byśmy jeszcze nazwali jej wynik umysłem?
  • Problem z aproksymacją takich "stanów sprzętowych" w systemach sztucznych jest poważny, ale w przyszłości uda się stworzyć dostatecznie złożony substrat w krzemie, nanorurkach lub za pomocą innych technologii tak, by mogły w nim powstać fizycznie symbole konieczne do realizacji umysłu podobnego do ludzkiego.

Ciekawą propozycją jest filozofia informacji (information philosophy, I-Phi), odnosząca się do fizyki, biologii i neuronauk. Zakłada się w niej, że Wszechświat jest systemem otwartym, rozszerza się w taki sposób, że maksymalna możliwa entropia (nieuporządkowanie) jest większa niż jej rzeczywisty wzrost, co umożliwia lokalne tworzenie złożonych struktur informacyjnych, informacja ciągle rośnie. Twórcą filozofii informacyjnej jest Robert Doyle, astronom pracujący na Harvard University. Jest to ciekawa propozycja ale wśród filozofów mało znana, wymaga zrozumienia zbyt wielu dziedzin nauki by zdobyć szybko popularność.
Inny nurt to "Nowy rodzaj nauki" Stevena Wolframa. Z prostych, powtarzalnych reguł stosowanych do początkowej sytuacji tworzy się niezwykle złożone struktury. Przykładem są fraktale, zbiór Mandelbrota, albo automatyk komórkowe, np. gra Life Conway'a. Dzięki obliczeniom można nie tylko symulować świat realny ale też niezliczone wyobrażone światy. Wolfram sformułował to jako ogólną zasadę (Principle of Computational Equivalence): wszystkie procesy zachodzące w świecie, w tym te generowane przez ludzi, można uważać za rodzaj obliczeń. Z punktu widzenia algorytmicznego opisu wiele różnych fizycznych procesów jest więc równoważna.

5.4. Sztuczna inteligencja

W sztucznej inteligencji definiuje się inteligencję jako umiejętność rozwiązywania zadań efektywnie niealgorytmizowalnych dzięki posiadanej wiedzy.
Inteligencja jest więc zdolnością do wykorzystania wiedzy, stąd centralna rola procesów poszukiwania rozwiązań w przestrzeniach różnych możliwości i rola metod reprezentacji wiedzy.

Nieporozumienie: komputery przeszukują wszystkie możliwości, ludzie dokonują świadomych wyborów i posługują się intuicją. Przecież komputer rozważa miliony wariantów, a szachista tylko kilka.
Dopiero szybkość i posiadana wiedza razem dają wysoką kompetencję. Komputery wcale nie rozważają wszystkich wariantów, posługują się wiedzą.
Czy do inteligentnego działania wystarczy wiedza w postaci reguł? Nie tak reprezentowana jest wiedza w naszych mózgach, dlatego w sztucznej inteligencji coraz większą rolę odgrywają inspiracje neurobiologiczne, sieci neuronowe i rozproszone przetwarzanie informacji. Stwarza to jednak problem - interpretacja reguł jest prosta i zrozumiała a wnioskowanie przy rozproszonej reprezentacji wiedzy nie ma dobrej interpretacji. W tej sytuacji ludzie mówią o intuicji, ale metody sztucznej inteligencji, które działają intuicyjnie, nie znajdują akceptacji.
Różne ograniczenia konstrukcyjne mózgów i komputerów powodują, że różne metody są bardziej efektywne. W ostatnich latach metody oparte na uczeniu maszynowym i rozproszonym przetwarzaniu informacji same generują potrzebną wiedzę, odkrywają ukryte struktury w danych, np. grając ze sobą, lub generując wiele sytuacji do analizy.

Na rysunku mamy relację pomiędzy szybkością działania (logarytmem z liczby możliwości analizowanych na sekundę), liczbą reguł, którymi się system lub człowiek posługuje (np. odniesień do zapamiętanych konfiguracji), a poziomem kompetencji mierzonym liczbą punktów w szachach.
Każda krzywa obrazuje ustaloną liczbę punktów, zwiększenie dostępnej wiedzy prowadzi do przesunięcia na krzywe leżące wyżej, odpowiadające większej liczbie punktów.
Hitech (program szachowy): 175.000 poz/sek i 10 reguł, siła 1900 punktów; 100 reguł - siła 2360 punktów.
Deep Blue osiąga powyżej 2800 punktów, a to wystarczy by wygrać z mistrzem świata.
Perspektywy: za 1000 dolarów będziemy wkrótce mogli mieć więcej mocy obliczeniowej niż daje nam mózg!

Relacja pomiędzy wielkością pamięci i szybkością działania mózgu i systemów sztucznych nadal wypada o czynnik rzędu 10.000 na korzyść mózgu.
W systemach AI brakuje obszernych baz wiedzy, porównywalnych z podstawową wiedzą każdego człowieka, bo taka wiedza nie jest dostępna w tekstach, a trudno jest uczyć się bez możliwości percepcji.
Baza wiedzy największego systemu regułowego CYC, mającego zdolność do zdroworozsądkowego rozumowania, to kilka milionów reguł koniecznych do aproksymacji wiedzy na temat świata zapamiętanej przez mózgi.
W każdej sekundzie życia niemowlęcia tworzy się ponad milion nowych połączeń pomiędzy neuronami!

Pamięć skojarzeniowa uaktywnia jednocześnie tysiące złożonych reprezentacji faktów i sytuacji, gdyż działa w sposób masowo równoległy.
Klasyczne komputery przeszukują informację sekwencyjnie więc nie mogą szybko korzystać z dużych ilości porównań tak jak mózgi.
Neurokomputery inspirowane przez budowę sieci neuronów są bliższe działaniu mózgu, ale nie ma jeszcze neurokomputerów o podobnej złożoności.
Wiedza eksperta to 20-100 tysięcy specjalistycznych porcji informacji (reguł, typowych sytuacji). Sposób działania mózgu pozwala na rozumowanie płytkie (wiem, bo pamiętam) lub proceduralne rozumowanie (wiem jak to zrobić).

Funkcjonalizm mówi nam, że technologia to sprawa drugorzędna, jeśli tylko możemy zrealizować dostatecznie złożone procesy.
Neurobiologia daje jak na razie pod wieloma względami najdoskonalsze rozwiązanie, ale elektronika, spintronika, nanotechnologie, komputery kwantowe pozwolą zrealizować inne typy umysłów, które też będą działały intencjonalnie, choć bardzo odmiennie od ludzkich.
W szczególności Human Brain Project (HBP), flagowy projekt Komisji Europejskiej z budżetem miliarda euro, zmierza w kierunku szczegółowej symulacji całego mózgu. Projekt jest realizowany od 2013 roku, zapewne potrwa ponad 10 lat. Inne wielkie projekty rozpoczęto w US, Chinach i Japonii. Strona HBP.
Raport administracji Prezydenta Obamy: Preparing for the future of artificial intelligence.

Czy sztuczna inteligencja będzie więc w jakiś sposób ograniczona?
W 1972 roku filozof Huber Dreyfus napsiał "What Computers Still Can't Do: A Critique of Artificial Reason", prowokacyjną książkę krytykującą samą możliwość sztucznej inteligencji. Swoją krytykę opierał na fenomenologii, a nie filozofii kognitywnej. Ta krytyka odnosi się do symbolicznego podejścia do AI, próby werbalizacji wiedzy, która nie skończyła się sukcesem. Obecnie ta krytyka straciła już swoje znacznie, gdyż większość funkcji, które Dreyfus uważał za niedostępne sztucznej inteligencji została zrealizowana, ale nie za pomocą inżynierii wiedzy, którą w jego czasach zajmowała się sztuczna inteligencja.

Daniel Kahneman (kognitywista, Nobel 2004) na wykładzie w 2018 roku powiedział (cytuję kilka fragmentów):

... czy cokolwiek jest możliwe tylko dla ludzi? Szczerze mówią nie widzę żadnego powodu by twierdzić, że sztuczna inteligencja nie będzie mogła czegoś zrobić.
... Powinniśmy zastępować ludzi algorytmami i to się właśnie dzieje. NAwet jeśli algorytmy nie radzą sobie jeszcze zbyt dobrze ludzie radzą sobie jeszcze gorzej, wprowadzają chaos i tylko usuwając wywołany przez nich szum można działać sprawniej.
... W naszych głowach mamy cudowny komputer. Zrobiony z mięsa, ale to komputer. Działa niezwykle chaotycznie, równolegle przetwarzając informacje w niezwykle sprawny sposób - ale nie ma tu magii. Dlatego bardzo trudno sobie wyobrazić, że mając dostatecznie wiele danych będą nadal rzeczy, które zrobią tylko ludzie. Nasze myslenie jest zawężone, zaszumione, łatwo zrobić to lepiej ...

Funkcjonalizm fizykalny (nie wiem czy takie pojęcie funkcjonuje w filozofii umysłu) podkreśla znaczenie fizycznego substratu, w którym możliwe są stany informacyjne. Nie jest łatwo odtworzyć w pełni subtelne stany związane z wrażeniami, przeżyciami, intencjami w programach komputerowych. Właściwym substratem powinno być coś podobnego do sieci neuronowej w mózgu. Próba stworzenia takich układów neuromorficznych, pozwalających na tworzenie niezwykle złożonych struktur, trwa od końca lat 1980 i doprowadziła do rozwoju inżynierii neuromorficznej.
Obwody scalone takie jak IBM TrueNorth to zupełnie nowa jakość i nie należy ich mylić z komputerami, bo działają w sposób bliższy temu, jak przetwarzają informację neurony w mózgu niż jak robią to procesory komputerów: przetwarzają wiele strumieni sygnałów jednocześnie i tworzą między nimi skojarzenia.
Czy modele neuronów w systemach neuromorficznych są wystarczająco dokładne by odtworzyć wszystkie cechy stanów informacyjnych mózgu? Czy też potrzebne są znacznie dokładniejsze modele, łącznie z poziomem kwantowym? Tego nie będziemy pewni dopóki nie zobaczymy, co się da osiągnąć za pomocą inżynierii neuromorficznej, na ile funkcje przez nie realizowane, jak i wzorce aktywacji przyjmowane przez taki sprzęt będą podobne do tych które zachodzą w mózgach.
Jedyny realny postęp w rozumieniu procesów mentalnych, jaki zrobiono przez ostanie pół wieku, związany jest z tworzeniem modeli funkcjonalnych i badaniami eksperymentalnymi, które pozwalają tworzyć coraz lepsze modele.

W XXI wieku ogromnego znaczenia nabrały technologie sztucznej inteligencji oparte o uczenie maszynowe, a więc tworzenie programów, które nie są zaprogramowane ale uczą się na podstawie danych, obserwacji, analizy obrazu. W szczególności szerokie zastosowanie znalazły głębokie sieci neuronowe, składające się z bardzo wielu warstw dokonujących transformacji informacji wejściowych, uczące się przez interakcję z innymi sieciami (GAN, Generative Adversarial Networks). Całą wiedzę ludzkości o szachach czy go można w ten sposób odkryć w ciągu jednego dnia.
Wiedza takich programów zależy od ich "doświadczenia życiowego", czyli tego co im się pokaże, a w przypadku robotów od wszystkich interakcji ze światem, podobnie jak wiedza ludzi. Trudno jest przeanalizować decyzje takich programów, bo są to reakcje złożonego systemu, który ma miliony parametrów. podobnie jak
W efekcie programy mogą się nauczyć różnych stylów muzycznych i samemu tworzyć muzykę, tworzyć dzieła sztuki, prowadzić samochody, stawiać diagnozy medyczne, analizować obrazy czy sygnały, podejmować decyzje finansowe, projektować i budować roboty, czy tłumaczyć na żywo z jednego języka na drugi.
Pojawiły się też liczne problemy w związku z botami, które tworzą strony internetowe i próbują oszukiwać ludzi, można w niemal idealny sposób naśladować głos ludzi lub podmieniać postacie na wideo. Ma to wpływ na rezultaty głosowania i zagraża rozprzestrzenianiem fałszywych wiadomości, które będą wyglądać niezwykle wiarygodnie. W coraz większym stopniu będziemy sterowani przez algorytmy.

Liczne przykłady osiągnięć sztucznej inteligencji są na tej stronie.

Ciekawostki: sztuczna inteligencja nie tylko wygrywa z szachistami i w grze na skojarzenia (Jeopardy, Va Banque), ale również jest lepsza w pisaniu doniesień gazetowych!

5.5. Chiński pokój

Funkcjonalizm wydawał się dobrym pomysłem ale pojawiło się szereg wątpliwości. Czy program może rozwinąć "prawdziwą" intencjonalność i rozumienie? Czy test Turinga jest warunkiem dostatecznym by to sprawdzić?
John Searle w 1980 roku przedstawił eksperyment myślowy, stanowiący argument przeciwko możliwości rozumienia przez maszynę oparta na dyskretnych symbolach.
Searle rozróżnił słabą i mocną wersją programu badań AI.
Słabe AI: symulacje komputerowe pozwalają rozwiązywać problemy wymagające inteligencji. Jest wiele przykładów takich programów i nie ma tu kontrowersji.
Silne AI: odpowiednio zaprogramowany komputer myśli, można mu przypisać stany poznawcze, a więc rodzaj umysłu.

Przypisywanie maszynom rozumienia, intencji czy odczuwania to metafora językowa (ale George Lakoff twierdzi, że cały język jest systemem metafor).
Searle chciał pokazać, że formalny opis syntaktyczny reguł działania systemu AI prowadzi do "impotencji semantycznej", maszyna niezdolna jest do prawdziwego rozumienia.
Jest to w istocie wersja wyobrażenia umysłu jako młyna, w którym nie znajdziemy rozumienia, przedstawiona przez Leibniza.

Załóżmy, że jakiś program prowadzący dialog po chińsku, spełnia test Turinga (Kloch 1976); czy taki program naprawdę rozumie język chiński?
Pojęcie "rozumieć" zostało tu użyte w sposób intuicyjny, np. wiemy co oznacza rozumieć opowiadania po angielsku, polsku czy chińsku, wiemy w którym języku rozumiemy, a w którym nie rozumiemy - zakłada to świadome rozeznanie.
Searle proponuje następujący sposób zbadania problemu.

Chinski pokoj

Wyobraźmy sobie, że jesteśmy zamknięci w pokoju wypełnionym koszami z napisami w języku chińskim.
Nie znamy języka chińskiego, ale mamy szczegółową instrukcję postępowania z regułami, manipulujemy symbolami rozpoznając kształty.
Przez okienko dostajemy pytania w pisemnej formie, analizujemy otrzymane symbole i posługując się licznymi regułami zestawiamy odpowiedzi.
Chińczycy widzą w nich sens i myślą, że w środku jest ktoś, kto rozumie pytania.

Wykonywanie formalnego programu nie wystarczy nam do zrozumienia, bo nie rozumiemy ani pytań ani odpowiedzi.
Skoro my nie rozumiemy to maszyna wykonująca program też nie rozumie.
Sama syntaktyka nie wystarcza do semantyki. Rozumienie znaczenia symboli przez człowieka i programy jest całkiem odmienne.

Artykuł Searle'a opublikowano w piśmie "Behavioral and Brain Sciences" wraz z 34 komentarzami, jest też artykuł w encyklopedii nauk kognitywnych MIT.
Skąd mogłoby się pojawić rozumienie w systemie formalnym? Co pozwala na rozumienie? W komentarzach rozważono kilka możliwości, zgrupowanych tu w kilku hasłach.

  1. "Odpowiedź systemowa": osoba i pokój wraz z instrukcjami stanowią cały system, który rozumie jako całość, osoba pełni tu tylko rolę procesora, rozumienie jest funkcją całego systemu.
    Searle: nawet jeśli osoba będzie miała reguły i symbole w pamięci to i tak nie zrozumie sensu dialogu po chińsku.
    Jeśli zrozumienie to tylko korelacja danych, to żołądek czy wątroba rozumieją i "poznają" tak jak komputerowe programy. Wtedy trzeba uznać panpsychizm: wszystko rozumie, ma przekonania, umysł jest wszędzie.
  2. Odpowiedź 2: Robot poruszający się po świecie będzie rozumiał, nauczy się korelacji pewnych pojęć z obserwacjami i wynikami swojego działania w świecie.
    Searle: obserwator może zostać umieszczony w głowie robota, ale i tak nie będzie rozumiał jego dialogu.
  3. Odpowiedź 3: Potrzebna jest symulacja działania mózgu na poziomie neuronów i synaps.
    Searle: to też nie wystarczy, konieczna jest symulacja "mocy będących przyczyną powstania stanów umysłowych", a nie mamy pojęcia czym one są. Demon kontrolujący neurony nadal nie rozumie sensu ciągów znaków.

Chińska "sala gimnastyczna" może być pełna demonów pobudzających sztuczne neurony.
Sztuczne systemy neuronowe można w idealny sposób symulować za pomocą zwykłego komputera, więc nie wnoszą nic nowego.
Zespół ludzi zastępujący jednego człowieka nadal nie będzie rozumiał języka chińskiego.
Organizacja przetwarzania informacji wzorowana na działaniu ludzkiego mózg nie gwarantuje intencjonalności systemu.

Wnioski Searle'a: Test Turinga nie wystarczy by uznać, że system naprawdę rozumie.
Podstawy kognitywistyki są błędne! Funkcjonalizm nie wystarczy.

Prawdziwe są następujące przesłanki:

Komentarz do A3: struktura programu może być opisana syntaktycznie ale jego działanie niekoniecznie, bo zależeć może od napływających danych, a program uczący się zmienia swoją strukturę sam się modyfikując.
Działanie systemów uczących się nie jest określone przez samą syntaktykę programu bo program jest nieznany i ciągle się zmienia.

Searle wyciąga następujące wnioski:

Wszystkie procesy fizyczne opisać można tak, jakby przetwarzały informacje, np. zasada minimalnego działania pokazuje, że na procesy mechaniczne, które przebiegają zgodnie z loklanymi, deterministycznymi zasadami (o ruchu układu decydują siły w danym punkcie i w danym momencie) patrzeć można tak, jakby cała trajektoria minimalizowała wielkość zwaną działaniem. Wygląda to tak, jakby przyroda "wybierała" działanie po najmniejszej linii oporu.
Chociaż "przetwarzanie informacji" w komputerach zachodzi na poziomie symbolicznym, ale przyczyny i skutki mogą być podobne jak w mózgach.
Mózgi "jakby przetwarzały informację", chociaż na poziomie fizycznym przyjmują tylko różne stany neurodynamiczne; na poziomie symbolicznym możemy interpretować ich działanie w sensie przetwarzania informacji, chociaż dla biologa mogą to być neurofizjologiczne reakcje.

Czy pomiędzy stanami mózgu a stanami psychicznymi nie trzeba wprowadzić pośredniego poziomu?
Płodny punkt widzenia możliwy jest gdy mamy wiele poziomów pośrednich.
Opis umysłu wymaga odpowiednich aproksymacji do opisu działania mózgu, od poziomu pojedynczych neuronów do poziomu zachowania.


Krytyka "Chińskiego pokoju"

Po wydaniu artykułu Searle'a toczyła się nadal długa dyskusja na tematu tego eksperymentu myślowego.
Wskazywano na podobieństwo argumentów Searle'a do "ducha w maszynie" Gilberta Ryle: umysł jest zbiorem funkcji a nie rzeczą, ale sednem argumentu chińskiego pokoju jest właśnie brak funkcji.
Wątpliwości niektórych filozofów budzi też samo zadanie: jak człowiek mógłby wykonać pracę tak złożoną? Tym bardziej, jak mógłby zapamiętać miliony reguł?

Zenon Pylyshyn: zamieniając kolejno neurony prawdziwego mózgu na krzemowe elementy stopniowo zaniknie rozumienie, a zostanie samo przetwarzanie symboli, chociaż zewnętrznie nic się nie zmieni?
Krzemowa kora wzrokowa spowoduje brak zrozumienia wrażeń wzrokowych zostawiając prawidłowe reakcje?
Zupełnie nieprawdopodobne. Tajemnicze "moce przyczynowe" mózgu to bezpłodna koncepcja. mozg-maszyna

Douglas Hofstadter i Daniel Dennett, w książce "The Mind's I: Fantasies and reflections on self and soul", opisali eksperyment z chińskim pokojem kontrolowany pokrętłami zmieniającymi różne parametry :

  1. substrat fizyczny: neurony i cząsteczki chemiczne, papier i symbole, struktury danych i procedury;
  2. poziom dokładności symulacji: od zdarzeń na poziomie atomowym, przez poziom komórkowy do reprezentacji procesów, koncepcji i symboli;
  3. zoom, czyli powiększenia procesów: od miniaturowego pokoju mieszczącego się w czaszce do powiększonych cząsteczek chemicznych makroskopowej wielkości;
  4. rozmiary demonów kontrolujących procesy;
  5. szybkość pracy demonów.

Ustawienia Searle'a:
1) papier i symbole 2) koncepcje, idee 3) rozmiary pokoju 4) demon wielkości człowieka 5) powolne operacje.

Przypuśćmy, że neurony w mózgu kobiety nie działają i nie ma ona umysłu.
Mały szybki demon dostarcza odpowiednie impulsy we właściwym czasie, przywracając jej umysł.
Czy umysł ten jest prawdziwy, czy tylko symulowany?
Searle sądzi, że prawdziwy, bo neurony teraz działają, jednak zakłada z góry, że wszystko, co nie jest biologicznej natury, nie wystarcza do osiągnięcia intencjonalności.

Powiększmy teraz rozmiary: mózg jest wielkości Ziemi, demon człowieka, jedna operacja trwa sekundę; czy nadal umysł wydaje się prawdziwy?

W mózgu nie znajdujemy żadnych obrazów, dźwięków, kolorów, przeżyć psychicznych, tylko aktywacje neuronów; obrazy i wrażenia pojawiają się w naszym umyśle.
Informacja wymaga architektury aktualizującej, np. elektroniki DVD, membrany głośnika, dzięki której system może działać.
Symbole w mózgu to specyficzne oscylacje w sieciach neuronów, "moc przyczynowa neuronów" nie ma tu nic do rzeczy, liczą się procesy skojarzeniowe, strumień zdarzeń wewnętrznych.
Abstrakcyjna informacja nie zastąpi fizycznego substratu przyjmującego odpowiednie stany i dającego mu możliwości działania, w tym również działań wewnętrznych, przywołania wyobrażeń.
Oprócz informacji o zjawisku potrzebny jest odtwarzacz, który ją zaktualizuje, oprócz DNA potrzebujmy środowiska dla rozwoju płodu, oprócz umysłu potrzebne jest ciało. rezonans

Żaden obserwator znajdujący się w mózgu człowieka nie dostrzeże myśli; dlaczego oczekujemy, że rozumienie obserwatora jest warunkiem uznania, że system rozumie? Czy obserwując przepływ prądu przez elementy elektroniki konsoli komputerowej moglibyśmy zrozumieć, jakie obrazy tworzy i co się tam dzieje?
Jakie są warunki powstania zrozumienia w naszym umyśle?
Rezonans poznawczy, "zestrojenie mózgów", empatia, pozwala współ-czuć i rozumieć. Jest to możliwe bo mamy podobne mózgi.
Zrozumienie stanów mentalnych mózgów o całkiem innej strukturze jest możliwe w sensie ogólnych intencji, ale im bardziej odmienne tym będzie trudniej. W biologii struktura decyduje o funkcjach. Demon-obserwator nie wystarczy, musiałby mieć podobny mózg, działać z odpowiednią szybkością i być zestrojony z obserwowanym mózgiem tak, by wywołać w nim podobne procesy co w obserwowanym systemie.
Program jest warunkiem koniecznym, ale nie wystarcza do wywołania intencjonalności. Dopiero program i odpowiednia architektura całego systemu wystarcza.

Searle pisze, że intencje termostatu to absurdalny pogląd, prowadzi to do panpsychizmu. "Intencje" termostatu to oczywiście metafora jeśli rozumieć intencje w ludzkim sensie, stany termostatu nie przypominają stanów mentalnych choć pełnią podobną rolę funkcjonalną.
Złożoność wrażeń organizmów biologicznych różni się dramatycznie dla prostych organizmów, np. kleszcza, przez gady, ptaki, gryzonie, małpy naczelne, osoby głęboko upośledzone aż do normalnie rozwiniętego człowieka.
W rozwoju umysłu można dostrzec zarówno ciągłość jak i stosunkowo szybkie ewolucyjne zmiany aparatu poznawczego. Ciągłość rozwoju umysłu widać patrząc na różne przypadki niedorozwoju mózgu, mózgi różnych gatunków zwierząt, czy próby budowy sztucznych mózgów. Nieciągłości ilustrują procesy pozwalające na odróżnienie siebie od otoczenia, pojawienie się autorefleksji, używania narzędzi, symboli, języka, powodujące jakościowe różnice w możliwościach współdziałania ludzi.
Osiągnięcie intencjonalności w sztucznym systemie wymaga aktywacji fizycznego substratu odzwierciedlających w treściach mentalnych sytuacje w środowisku, odpowiedniej synchronizacji zachodzących procesów. Nie można dowolnie manipulować czasem, jak to robi Searle w opisie chińskiego pokoju, bo procesy się rozstroją i zdolności poznawcze jak i możliwe stany wewnętrzne ulegną całkowitej degradacji, system nie będzie już mógł dokonywać skojarzeń i rozróżnień, które stanowią podstawę stanów poznawczych.

Zauważmy, że gdyby ten system działał dla języka polskiego (lub gdybyśmy znali chiński), to reguły, pytania jak i odpowiedzi udzielane przez system miałyby dla nas sens; czy to znaczy, że w systemie jest rozumienie tylko wtedy, gdy mamy w nim człowieka, który zna dany język, a rozumienie znika, gdy jest człowiek ale zmienia się język? Założyliśmy przecież, że nadal człowiek znający polski język będzie się posługiwał regułami i wybierał odpowiedzi zgodnie z symbolami. Z zewnątrz nic się nie zmieni, ale raz w systemie jest rozumienie (jeśli jestem tam osoba znająca danych język), a raz go nie ma (jeśli języka nie zna). Dochodzimy więc do sprzeczności: system rozumie lub nie rozumie, ale sam dialog nie wystarcza by to potwierdzić lub zaprzeczyć. Zaglądanie do środka też nie wystarcza, osoba w środku może nie rozumieć sensu dialogu. Nawet zapytanie tej osoby bezpośrednio nie wystarcza, bo jak pisze Searl człowiek mógłby działać w oparciu o zapamiętane reguły, nie rozumiejąc sensu pytań i tworzonych w ten sposób odpowiedzi.

Test Turinga pozwala odrzucić programy, które nie można uznać za funkcjonalnie równoważne umysłom.
Eksperyment z chińskim pokojem zawsze prowadzi do negatywnego wyniku, również dla mózgów! Nie jet to więc test bo ma zawsze jeden wynik.
Searle: wiemy skądinąd, iż mózgi "rozumieją" i "mózgi są przyczyną umysłów".
Właściwym podejściem jest najpierw ustalenie, jak można ocenić rozumienie zarówno ludzi jak i sztucznych systemów. Potrzebny jest do tego test Turinga. Można go rozszerzyć na bardziej złożone zachowania niż tylko odpowiedzi werbalne, ale potrzebny jest test, który przynajmniej w stosunku do niektórych ludzi da wynik pozytywny.
"Chiński pokój" to nie jest test, tylko demagogicznie ustalony punkt widzenia zawsze odmawiający rozumienia!

Searle oczekuje, że obserwator będzie miał świadome wrażenie "rozumienia", ale takie wrażenie i rozumienie operacyjne to dwie różne sprawy.
Wrażenie "rozumiem" to sygnał mózgu: "OK, mogę słuchać dalej, przetrawiłem już porcję informacji i czekam na dalszą część", taki jest przynajmniej sens ewolucyjny tego wrażenia.
Brak wrażenia "rozumiem" nie oznacza jeszcze braku rozumienia - pytany na egzaminie mogę odpowiadać sensownie, chociaż nie jestem przekonany, że w pełni rozumiem. Znaczna część procesów zrozumienia przebiega poza świadomością, myśli przychodzą nam spontanicznie do głowy, nie dlatego, że świadomie je tworzymy.
Odwrotnie, poczucie rozumienia nie oznacza, że się rozumie (np. można mieć wrażenie wszechwiedzy po zażyciu środków halucynogennych, ale nic z tego nie wynika).
Searle chce, by obserwacja wewnętrznych mechanizmów przetwarzania informacji wywołała w obserwatorze poczucie rozumienia, które jest dla niego ważniejsze od testu.
Taka obserwacja nie pozwala na ocenę, można jedynie sprawdzać czy system jako całość reaguje w odpowiedni sposób - warunkiem uznania, że ktoś rozumie jest pozytywny wynik egzaminu.
Dzieci chowające się w dwujęzycznych środowiskach nie potrafią czasami przetłumaczyć jakiegoś zwrotu z jednego języka na drugi, ale wiedzą jak je użyć w danym kontekście.

Czy "Chiński pokój" to system, który może mieć wewnętrzne poczucie rozumienia?
Przypomina on raczej zombi, nie ma w nim bowiem miejsca na ocenę własnych stanów wewnętrznych, nie potrafi sobie niczego wyobrazić, ani wmówić, że coś wie. Kluczem jest tu zdolność do wyobrażenia. Słowa wywołują w nas wspomnienia, obrazy, możemy opisać sytuację. Jeśli zamiast reguł wyobrazimy sobie system, w którym buduje się wyobrażenia na podstawie dochodzących do niego tekstów, zdolny do opisu tych wyobrażeń, to rozumienie będzie tu związane z budową odpowiedniego wyobrażenia, modelu sytuacji.
W modelu Searla nie ma pamięci epizodycznej, która pozwala na budowanie modelu sytuacji na podstawie dialogu. Nie jest to więc dobra aproksymacja do rzeczywistego systemu poznawczego ani do tego, jak działają systemy sztucznej inteligencji. Elementy dostępne w pamięci roboczej (pamięci RAM komputera) i fizyczny stan całej elektroniki z tym związany decyduje o możliwych skojarzeniach. Używając klasycznych komputerów nie mamy do czynienia z modelem, w którym jednocześnie toczą się różne współpracujące ze sobą procesy, tworzące spójny stan dynamiczny całego systemu.

Trudno będzie przybliżyć działanie mózgu za pomocą reguł, ale też uczące się systemy skojarzeniowe nie opierają się na sztywno zaprogramowanych regułach tylko na tworzeniu nowych asocjacji, są więc nieprzewidywalne bo w rzeczywistym świecie nie da się przewidzieć wszystkich oddziaływań środowiska, które wpłyną na system uczący się.
Coraz lepsza aproksymacja działania mózgu to problem techniczny stworzenia mózgopodobnych struktur w sztucznych systemach, a nie zagadnienie filozoficzne.
Rożna struktura sprzętu prowadzi do różnych struktur mentalnych i umysłu.
Wzajemne zrozumienie pomiędzy zwierzętami różnych gatunków jest tym większe, im bardziej podobna jest struktura ich mózgów (sprzętu), umożliwiając rezonans poznawczy dzięki neuronom lustrzanym.

5.6. Nieobliczalność

Roger Penrose, znakomity fizyk matematyczny z Oxfordu, specjalista od ogólnej teorii względności i czarnych dziur (Nobel 2020), napisał kilka popularnych książek na temat umysłu: "Nowy umysł cesarza" i "Cień umysłu".
Popularność książki te zawdzięczają zapewne chęci chowania głowy w piasek (Turing).
Argument przeciwko "silnemu AI" oparty na twierdzeniu Gödla i Churcha-Turinga.
Filozof z Oxfordu, J.R. Lucas (1961), rozważał ten sam argument znacznie wcześniej.
Penrose poświęca 250 stron dyskusji na temat tw. Gödla by dowieść, że:

Żaden program komputerowy, działający w oparciu o zbiór niesprzecznych wewnętrznie aksjomatów, nie może rozstrzygnąć pewnych pytań, z którymi człowiek sobie poradzi.

To już częściowo omawialiśmy. Pytania, na które nie mogą odpowiedzieć systemy wnioskujące w oparciu o logikę nie są interesujące i ograniczają możliwości sztucznej inteligencji, która często nie opiera się na wnioskowaniu logicznym na podstawie niesprzecznych aksjomatów.
Penrose jednak sądzi, że człowiek radzi sobie dzięki świadomości. Nie potrafi jednak sprecyzować, o co mu chodzi, pisze: "świadomość bez wątpienia jest czymś". Chociaż trudno o precyzyjną definicję świadomości to jest wiele czasopism naukowych zajmujących się różnymi konkretnymi badaniami nad świadomością, stanami świadomości, procesami zachodzącymi w mózg, kiedy uświadamiamy sobie jakieś wrażenia. Jednakże Penrose o takich zagadnieniach nie wspomina.
Jego głównym argumentem jest to, że czasami możemy łatwo zobaczyć coś, co trudno jest udowodnić, ale to jedynie świadczy o przydatności reprezentacji wizualnych.

Penrose wyróżnił 4 podejścia do świadomości:

A) Myślenie jest po prostu obliczaniem a świadomość wynikiem tych obliczeń.

B) Świadomość jest cechą fizycznych właściwości mózgu. Można je symulować rachunkowo ale samo obliczanie nie powoduje świadomości.

C) Fizyczne działania mózgu wywołujące świadomość nie mogą być symulowane rachunkowo.

D) Świadomości nie można wyjaśnić metodami naukowymi.

Wg. Penrose'a A) jest zgodą na test Turinga do oceny inteligencji i świadomości, ale sam Turing o świadomości celowo nic nie mówił!
Krytyka AI przez Penrose'a nie wykazuje zrozumienia przedmiotu: wyśmiewa się z pomysłu "algorytmu umysłu", bo gdyby zapisać algorytm w książce i przewracać jej kartki, to by umysł z tego nie powstał ...
Autor walczy z wiatrakami, poszukując umysłu abstrakcyjnego, a nie realnego: nikt nie sądzi, że sam algorytm to już umysł, potrzebna jest cała architektura.

Z tych rozważań nie wynikają żadne ograniczenia dla inteligencji maszyn.
Przekonanie Penrose'a, że nie da się zrobić dobrego programu do gry w go, nie jest niczym poparte, w tej dziedzinie nastąpił wyraźny postęp.
Na go nie ma takich pieniędzy jak na szachy; go jest trudne, bo trzeba skupić się na wzorcach a nie procesach szukania, ale świadomość nic do tego nie ma, to brak reprezentacji wizualnych i orientacji przestrzennej w dotychczasowych programach.
Ogólnie zakładanie, że w jakiejś dziedzinie sztucznej inteligencji nie da się zrobić postepu z podwodu braku "świadomości" jest bardzo naiwne.

e-brain

Penrose pomija całkowicie możliwości B) i D), a skupia się na C).
Ma to wynikać z twierdzenia Gödla i Turinga, gdyż świadomości (co u niego znaczy "czegoś"?) nie można symulować.
Maszyny nie mogą według niego rozwiązać zagadnień niealgorytmicznych, a ludzie mogą, dzięki "świadomemu myśleniu".
Jednak nasze możliwości rozwiązywania zadań niealgorytmicznych są bardzo ograniczone i we wszystkich dziedzinach, w których możliwa jest precyzyjna reprezentacja wiedzy, maszyny działają lepiej od ludzi rozwiązując trudniejsze zadania.
Wniosek: głównym problemem jest brak dostatecznie bogatej reprezentacji wiedzy w systemach sztucznych.

Trudności w zrozumieniu świadomości prowadzą Penrose'a do poszukiwanie ezoterycznej fizyki procesów nieobliczalnych, koniecznej jakoby do zrozumienia umysłu.
Grawitacja kwantowa i pętle czasowe mają być pomocne w zrozumieniu umysłu? Na razie nie przydały się nawet do opisu najprostszych zjawisk fizycznych.
Procesy kwantowe w mikrotubulach, strukturach cytoszkieletalnych znajdujących się we wszystkich komórkach, mają grać jakąś rolę w powstawaniu świadomości, chociaż nie wiadomo dlaczego.
Nie jest to prawdopodobne, zjawiska kwantowe są w temperaturze pokojowej niestabilne, istnieją niezwykle krótko, nieporównywalnie krócej niż czas potrzebny na powstanie wrażenia.
Modelowanie neuronowe na poziomie praw fizyki klasycznej pokazuje jak działają liczne funkcje mentalne i nic nie zapowiada, by możliwości rozwoju w tym kierunku napotkały jakąś barierę wynikającą z braku efektów kwantowych. Mamy bardzo dobre symulatory działania pojedynczych neuronów, całkiem dobre całej kolumny korowej zawierającej 30.000 neuronów, nie widać w tych modelach potrzeby wprowadzania bardziej szczegółowych zjawisk odwołujących się do efektów kwantowych.

W swoich książkach Penrose nie ma natomiast prawie nic o neuronach, neuropsychologii czy konkretnych funkcjach i dysfunkcjach poznawczych, które należy wyjaśnić. To nie jego dziedzina, zajmuje się tylko wyjaśnianiem "świadomości" - czyli konkretnie czego, dokładnie w jakiej sytuacji, na jakie pytania odpowiada?
Jak na razie kwantowe teorie świadomości nie wytłumaczyły ani jednego zjawiska, które badają ludzie zajmujący się świadomością, np:

Zupełne manowce! Nie bardzo nawet wiadomo co dokładnie ma to wyjaśniać, do interpretacji jakich eksperymentów odnosić, jak mogłyby wyglądać kwantowe wyjaśnienie świadomości. Wynikiem tych spekulacji jest stwierdzenie, że koherentne stany w mikrotubulach sterują synapsami, dzięki czemu duchowy umysł może wpływać na mózg. Dlaczego to miało by być związane z umysłem bardziej niż sama aktywacja sieci neuronowych? Co wywołuje takie stany i jakim procesom podlegają? Powstało wiele pseudonaukowych blogów, gdzie można się do woli podniecać teorią wielu światów i tajemnicami mechaniki kwantowej, które dają tak piękne pozory wyjaśnienia niczego w rzeczywistości nie wyjaśniając. Prawdziwe wyjaśnienia mają realne konsekwencje w postaci głębszego zrozumienia zachowania czy lepszych procedur medycznych.
Mamy spójny obraz tysięcy takich obserwacji i nie wymaga on odwoływania się do mechaniki kwantowej. Oczywiście jest wiele ciekawych efektów kwantowych, ale na razie nie ma żadnych istotnych powodów by sądzić, że są one konieczne do powstania świadomości.



5.7. Suma summarum

W dyskusjach o umyśle warto wyraźnie odróżnić zagadnienia dotyczące inteligencji, myślenia, intencjonalności i świadomość.
Test Turinga dotyczył tylko myślenia, nie ma powodu by odrzucać jego wyniki czy twierdzić, że system, który spełnia taki test nie rozumie jeśli odpowiedzi na wszystkie pytania pokazują, że rozumie. Nie można jednak sądzić o jego spełnieniu na podstawie naiwnych pytań, zamieniając rolę pytającego i pytanego, jak to robią współczesne boty. Przejęcie inicjatywy w czasie dialogu pozwala na dość łatwe stworzenie pozorów rozumienia.
Czy systemy AI wykorzystujące dostarczoną im wiedzę i uczące się można uznać za aksjomatyczne systemy formalne podlegające ograniczeniom twierdzenia Gödla? Nie wykorzystują formalnego rozumowania tylko statystyczne korelacje pozwalające na skojarzenia.
Nie ma żadnych konkretnych ograniczeń wynikających z tego twierdzenia dla rozwiązywania rzeczywistych problemów wymagających inteligencji. Logika nie jest wcale podstawą budowy neurokomputerów sterujących pojazdami. Nie próbują w logiczny sposób udowodnić, że z analizy obrazu wynika iż widoczna plama to cień drzewa a nie jego pień i można jechać spokojnie.
Czy do myślenia konieczna jest świadomość? Tak się nam wydaje, ale psycholodzy są przeciwnego zdania (Velmans 1991). Świadomość nie jest czynnikiem sprawczym, myśli mogą spontanicznie się pojawiać, a my zdajemy sobie z nich sprawę, ale nie kontrolujemy ich pojawiania się w świadomy sposób - to by prowadziło do nieskończonego regresu.
Widać ciągły postęp w symulacjach działań inteligentnych oraz symulacjach funkcji mózgu. Brak jest konkretnych ograniczeń dotyczących możliwości komputerów. Meta-problemy związane z logicznymi paradoksami nie są żadną barierą dla programów rozumujących czy dowodzących matematyczne twierdzenia.

robot

Chiński pokój dotyczy "rozumienia", ale bez precyzowania co to pojęcie oznacza i jakie warunki należy spełnić by uznać, że system rozumie; oparty jest na złej intuicji "potrafię zaobserwować czym jest rozumienie".
Searle sam podkreśla, że stany mózgu są fizycznymi stanami, a nie tylko przepływem informacji.
Symulacja wibracji membrany nie wprowadza programu w wibracje, a symulacja turbulencji atmosferycznych nie wywoła burzy.
Symulacja to nie rzeczywistość. Mapa to nie terytorium!
To nie oznacza jednak, że nie da się zrobić fizycznej symulacji wywołując w sztucznych systemach stany podobne do tych, które mamy w mózgu. Do tego właśnie służą neuromorficzne obwody scalone, z których budowane są neurokomputery.

Zasada "niezmienniczości organizacyjnej" jest podstawą wielu rozumowań w filozofii umysłu:

Funkcje systemu nie ulegną zmianie jeśli tylko wzorce oddziaływań determinujące sposób przetwarzania informacji przez system nie ulegną zmianie.

Jeśli qualia (wrażenia) nie są funkcjami tylko realnymi stanami mózgopodobnej materii, które są oceniane przez porównanie z zapamiętanymi stanami, to można je przypisać mózgom (sprzętowi) aktualizującym informację, a nie samym abstrakcyjnym procesom przetwarzania informacji.
Przekonanie, że kolory i dźwięki są realnymi wrażeniami może powstać w systemie sztucznym opartym na mózgopodobnych zasadach. Jeśli taki system reaguje, analizuje, kojarzy, zdaje sobie sprawę z kolorów i różnych aspektów dźwięku, może je komentować, to musi wiedzieć, że są i traktować je jak my traktujemy wrażenia.
Symulacja wrażeń to kwestia doskonałości technicznej odtwarzania takich stanów, co prowadzi do odpowiednich reakcji systemu.
Zła aproksymacja prowadzi do karykatury wrażeń, tak jak np. dźwięk mowy lub obraz twarzy z niewielką kompresją wydaje się doskonały, ale przy dużej kompresji nie przypomina oryginału.

Częste eksperymenty myślowe oparte na funkcjonalizmie: zamieńmy część mózgu stopniowo na kawałki krzemu.
Jeśli elementy sztuczne odpowiednio oddziałują z biologicznymi to niczego nie zauważymy.
Jednak identyczność funkcjonalna na poziomie molekuł to w istocie identyczność atomów.
Białkowe receptory neuronów i neurotransmitery nie da zastąpić w idealny sposób krzemem zachowując te same relacje.
Identyczność funkcji pociąga za sobą identyczność budowy fizycznej!
Funkcjonalizm na poziomie molekularnym jest słuszny tylko w przybliżonym sensie, a nie w sensie absolutnym, możemy odtworzyć tylko funkcje podobne, ale nie identyczne.

Właściwe pytanie to: czy aproksymacja sposobu działania umysłu doprowadzi tylko do sztucznej inteligencji, czy do czegoś, co skłonni bylibyśmy nazwać sztucznym umysłem?
Odpowiedź zależy od tego, co uznamy za umysł, na ile ma być podobny do ludzkiego. Na ile podobne do mojego są inne umysły? Im bardziej odmienna kultura i im bardziej odmienny gatunek tym mniej podobieństwa.
Projekcja naszej własnej intencjonalności spowoduje, że większość ludzi zaakceptuje nawet robota jako partnera.

Teoria obliczalności i rozważania o możliwościach komputerów opiera się tylko na fizyce klasycznej.
Każdy system fizyczny to program obliczeniowy, a wynik eksperymentu to wynik obliczeń.
Przykłady: zasada minimalnego działania dla układów mechanicznych, obliczenia wykonywane za pomocą DNA.
Ewolucja w czasie układu fizycznego to proces obliczeniowy.
Komputer kwantowy może symulować ewolucję prawdziwych systemów, komputer klasyczny tylko w przybliżeniu.
Zagadnienia "obliczalne" to te, które są zgodne z prawami fizyki.

Wniosek: filozofia kognitywna powinna opierać się na fizyce, a nie automatach Turinga.
Klasyczne obliczenia pozwalają na dokładny opis zachowania się neuronów przejawiającego się w ich własnościach bioelektrycznych, generowanych impulsach i zmianach morfologicznych.
Zbieżność modeli neuronów w środowisku biochemicznym do właściwego zachowania jest wątpliwa.
Nie dostrzegamy ruchu godzinnych wskazówek zegara, ale zmiany się kumulują.
Wymiana części mózgu na krzemową zmieni sposób odczuwania wrażeń.

Dopiero informacja + fizyczny system aktualizujący informację może być modelem umysłu!
Sama informacja ani substancja nie wystarcza, ważne są interakcje elementów, wzorce aktywacji jakie mogą w niej powstać, złożone struktury aktywacji, wykorzystywane do rozpoznawania i sterowania organizmem. Monistyczne koncepcje traktujące umysł jako substancję, a nie jako emergentną funkcję skomplikowanego systemu, nie pozwalają na robienie modeli poznawczych, na analizę eksperymentów, nie są więc do niczego przydatne.

Pora powiązać filozofię umysłu z neurobiologią. Dobrze jest jednak zorientować się, jak wygląda obecnie sytuacja w sztucznej inteligencji, co udało się zrobić i jakie problemy są obecnie nadal nierozwiązane.
Oprócz moich referatów i infromacji z Flipboarda polecam serwis Sztucznainteligencja,org.pl.

Zadanie: odpowiedz na dowolne trzy z poniższych pytań. Nie powinny to być cytaty z notatek tylko własne krytyczne komentarze.



Przykładowe pytania (tu dość ogólne, na egzaminie będą bardziej szczegółowe):

  1. Czy można porównać umysł do programu? Dla jakich zjawisk nie jest to dobre porównanie?
  2. Czy inteligencja i świadomy umysł musi być ze sobą powiązana?
  3. Chiński pokój: Na czym polega? Jakie podano rozwiązania?
  4. Jakie wnioski wyciąga John Searle z eksperymentu z chińskim pokojem?
  5. Jak zmodyfikował ten eksperyment Hofstadter i Dennett?
  6. Jakie są warunki powstania zrozumienia w systemach naturalnych i sztucznych?
  7. Czy eksperyment z chińskim pokojem stwarza jakieś ograniczenia dla możliwości sztucznej inteligencji? Uzasadnić.
  8. Na czym polega nieobliczalność umysłu w/g Penrose'a.
  9. Jakie argumenty wysuwa Penrose za nieobliczalnością?
  10. Jakie są 4 możliwe relacje świadomości i systemów obliczeniowych wg. Penrose'a?
  11. Czy do myślenia konieczna jest świadomość? W jakim przypadku?
  12. Co to jest zasada "niezmienniczości organizacyjnej"? Co z niej wynika na poziomie molekularnym?
  13. Dlaczego lepiej oprzeć filozofię kognitywną na fizyce niż automatach Turinga?
  14. Dlaczego behawioryzm zdominował psychologię?
  15. Na czym polegał neobehawioryzm?
  16. Co spowodowało narodziny kognitywizmu?
  17. Co to jest minimalistyczny funkcjonalizm?
  18. Co to jest komputacjonizm?
  19. Skąd w systemach formalnych może pojawić się znaczenie symboli?
  20. Podaj argumenty Turinga i jego odpowiedzi.
  21. Jak zdefiniował umysł Newell z Simonem?
  22. Dlaczego stwierdzenie "komputer liczy, a człowiek myśli" jest błędne?
  23. Jak należy porównywać mózgi i umysły z sztucznymi systemami?
  24. Co to są systemy oparte na wiedzy?
  25. Co to jest fizyczny system symboliczny?
  26. Jakie były przyczyny wprowadzenia testów IQ?
  27. Od czego zależy kompetencja programów komputerowych prowadzących rozumowanie?
  28. Wykreśl krzywe stałej kompetencji systemu grającego w szachy – co jest na osiach wykresu?
  29. Na czym polega przewaga mózgów nad programami komputerowymi?
  30. Na czym polega przewaga programów nad mózgami?
  31. Opisać warianty filozofii kognitywnych: psychofunkcjonalizm, teoria identyczności, metodologiczny solipsyzm, różne rodzaje monizmu.


Literatura

Następny krok w rozwoju cywilizacji może należeć do robotów (National Geographic trailer).
Hot Robot At SXSW Says She Wants To Destroy Humans.
Information Philosopher, czyli filozof informacji,

IQ i narodowy test na inteligencję.
Testy oparte na rosnącej złożoności zadań opisane są w pracy: José Hernández-Orallo y David L. Dowe. Measuring Universal Intelligence: Towards an Anytime Intelligence Test. Artificial Intelligence 174(18): 1508
Center for Brains, Minds and Machines, MIT.
The Psychologist jest popularnym pismem na temat psychologii, w którym poruszano zagadnienia mitów o słynnych eksperymentach w psychologii.
Nieporozumienia wynikające ze statystyki - D. Huck.
10 mind myth
Cognitive Psychology and Cognitive Neuroscience, Wikibook

Literatura po polsku

Na YouTube jest wiele ilustracji Chińskiego Pokoju.
Nowości na temat sztucznej inteligencji na moim Flipboard.

IQ i narodowy test na inteligencję.
The Psychologist jest popularnym pismem na temat psychologii, w którym poruszano zagadnienia mitów o słynnych eksperymentach w psychologii.
Nieporozumienia wynikające ze statystyki - D. Huck.
10 mind myth




Cytowanie: Włodzisław Duch, Wstęp do Kognitywistyki. Rozdz. 5: Filozofia kognitywna. UMK Toruń 2020.
Następny wykład: Neurofilozofia | W. Duch, Wstęp do kognitywistyki - spis treści