o maszynach, ludziach i inteligencji

ProfileMiałam okazję ostatnio przeczytać świetną książkę, której autorem jest John L. Casti: "Kwintet z Cambridge. Owoc naukowej wyobraźni". Jest to relacja ze spotkania (które tak naprawdę nigdy nie miało miejsca) pięciu panów, naukowców, specjalistów z kilku różnych dziedzin. Charles Percy Snow to pisarz, urzędnik państwowy i fizyk (organizator spotkania przy znakomitym obiedzie, nawiasem mówiąc); Alan Turing to matematyk, kryptograf i twórca czegoś w rodzaju prototypu komputera; John Burdon Sanderson Haldane - genetyk; Erwin Schrödinger (tak, to ten od kota będącego jednocześnie martwym i żywym w zamkniętym pudełku) fizyk i jeden z twórców mechaniki kwantowej i Ludwig Wittgenstein - filozof. Tematem przewodnim spotkania jest dyskusja nad możliwością zaistnienia (bądź nie) maszyny inteligentnej w stopniu co najmniej dorównującym człowiekowi. Samą książkę zdecydowanie polecam, ale nie będę jej streszczać pozostając w nadziei, że sami po nią sięgnięcie. Natomiast chcę po swojemu zastanowić się nad tym zasadniczym pytaniem:

Czy maszyna będzie mogła kiedykolwiek myśleć jak człowiek?

Dobór uczestników owego wyimaginowanego obiadu nie był przypadkowy, zagadnienie wymaga rozważań na poziomie matematycznym, filozoficznym, biologicznym, językowym i logicznym. Pewno znalazłoby się jeszcze kilka innych dziedzin.
Dzisiaj wciąż, z każdej strony, atakuje nas technologia i pojęcia takie jak "Big Data" czy "data mining", a przy nich kolejne, jak "sieci neuronowe", "naiwny Bayes" itp. Czy ta technologia - to już inteligencja czy wciąż tylko dokładne wykonywanie poleceń?
Przede wszystkim musimy zacząć od innego pytania:

Co to znaczy: "myśleć jak człowiek"?

Czy mamy na myśli chłodne, pozbawione emocji rozumowanie logoczne? Jeśli tak, to sorry, ale niewielu ludzi potrafi tak myśleć bez przerwy.
Czy może inteligencję będziemy rozumieć jako podobny do ludzkiego sposób wyciągania wniosków?

I to z kolei prowadzi do pytania:

Czy komputer będzie kiedykolwiek w stanie zrozumieć człowieka w sposób znacznie przekraczający akceptację wprowadzonego kodu?

W dużym uproszczeniu: Big Data i data mining opierają się na budowaniu modeli, testowanych na określonej próbie danych (nazywa się to uczeniem modelu) a następnie "uruchamianiem" tych modeli na całych, niekiedy ogromnych zbiorach danych. W ten sposób wykrywane są np. korelacje, czyli związki między poszczególnymi elementami modelu. M. in. na tym oparte są podpowiedzi w sklepach internetowych (klienci, którzy kupili kozę tak jak Ty kupili też  stołki do siadania przy dojeniu). Część z tych korelacji wydaje się oczywista i jest widoczna gołym okiem (jeśli ktoś kupuje kozę, istnieje wysokie prawdopodobieństwo że ją ma gdzie trzymać, więc pewno posiada jakiś kawałek gruntu). Część niekoniecznie - np. podobno większe prawdopodobieństwo, że kobieta kupi rower istnieje wtedy gdy jest rozwiedziona.
We wspomnianej książce Alan Turing argumentuje, że zapis binarny (czyli 0 i 1) może odwzorowywać otwarte i zamknięte połączenia między neuronami w ludzkim mózgu. Ale tu przeskoczymy do pytania:

Skąd się biorą emocje?

Motorem postępowania człowieka w dużej mierze są właśnie emocje i to czyni nasze reakcje często trudnymi do przewidzenia. Wielkie firmy pracujące nad udoskonalaniem Big Data sięgają po dane z Facebooka (ach, te "lajki"...) żeby "poznawać" nas indywidualnie i w ten sposób lepiej dopasowywać reklamy (czy też indywidualizować przekaz, wpływać na nasze decyzje lub właśnie przewidywać nasze reakcje).
Istnieje w ekonomii coś takiego jak teoria racjonalnego wyboru. Problem w tym, że nasze wybory wcale nie bywają racjonalne. Bo i ludzie wcale nie są racjonalni. Właśnie dlatego, że często kierują się emocjami (lub też impulsem pod wpływem chwili).
Weźmy na przykład takie pojęcie jak "zdenerwowanie". Można go użyć, gdy ktoś jest wściekły, niepewny, boi się czy czuje tremę. Pod wpływem zdenerwowania również podejmujemy decyzje.

A widział ktoś kiedyś zdenerwowany komputer?

Przywykliśmy do komunikatów typu:
"czy na pewno chcesz to zrobić?"
ale chyba nikt z nas nie spotkał komunikatu od komputera:
"chyba cię pogięło".
Tzn. nie mam tu na myśli testerów oprogramowania tworzonego przez niezrównoważonych programistów, oczywiście ;)
O ile więc mogę się zgodzić z tym, że maszyna, podobnie jak człowiek, uczy się analizując dane (zarówno wprowadzone w standardowy sposób jak też przez analizę obrazu z kamery i dźwięku zbieranego mikrofonem) to nie zgodzę się ze stwierdzeniem, że kiedykolwiek nauczy się własnych emocji (czyli ich wytwarzania, bo co do okazywania to od czasu do czasu można spotkać rozmaite zajawki - ale to wciąż tylko kwestia programu, czyli kodu). Możemy nauczyć wyświetlacz pokazywania schematu twarzy czy nawet całkiem realistycznej twarzy o smutnym, wesołym, zagniewanym lub zadowolonym wyrazie; możemy nauczyć komunikowania się z ludźmi czy innymi maszynami poprzez korzystanie ze słownika z użyciem najczęściej spotykanych w danym kontekście zwrotów. Ale nie będziemy w stanie nauczyć maszyn komunikować się z nami na bazie emocji, bo maszyna własnych emocji nie wytwarza. Ona tylko odbija to, co bierze z zewnątrz. Zastanawiałam się kiedyś, czy przy kolejnym "zawisie" jednej z aplikacji mój komputer był zakłopotany. Mimo szukania rozmaitych oznak owego zakłopotania nie stwierdziłam. Znów tylko 1 albo 0 - czyli działa albo nie...
Nawiasem mówiąc, był niedawno taki eksperyment: Microsoft skonfrontował swojego bota imieniem Toy z internautami. Jak czytamy w artykule na ten temat:
Program w ciągu 24 godzin nauczył się wypisywać bardzo niestosowne, wulgarne, niepoprawne politycznie komentarze. Poddawał w wątpliwość Holocaust, stał się rasistą, antysemitą, znienawidził feministki i popierał masowe mordy Adolfa Hitlera.
Smutne, ale to wiele mówi o nas, ludziach.
Jeśli będziecie kiedyś mieli okazję zwiedzić Centrum Nauki Kopernik, polecam zabawę z czatem, gdzie celem jest namierzenie bota wśród rozmówców. Nie pamiętam, o czym dyskutowaliśmy, ale w pewnym momencie bez związku z tematem rzuciłam: "Gdzie jest generał" i natychmiast dostałam odpowiedź: "na wojnie". I tu przechodzimy do kolejnego elementu jakim jest abstrakcja.

Czy komputer potrafi przekroczyć pewien poziom abstrakcji?

Można powiedzieć, że człowieka kształtują od dzieciństwa również "dane wejściowe": otoczenie, rodzina, kultura, tradycja, relacje wśród najbliższych i miejsce w grupie. Teoretycznie można podobne warunki zapewnić maszynie, ale czy uzyskamy podobny efekt? To wszystko o czym pisałam wyżej plus jakieś elementy przekazywane w genach kształtują poczucie własnej wartości, empatię, świadomość własnego "ja", również egoizm. A to właśnie podstawowe składniki naszego charakteru.

Czy komputer może mieć ego i charakter?

I tu jest klucz do odpowiedzi na jedno z pytań zadanych wyżej: czy komputer może zrozumieć człowieka (poza akceptacją wprowadzonego kodu, oczywiście)?
Tu znów wrócę do "Reguły przetrwania", której autorem jest Vitus Bernward Dröscher. Bo tak naprawdę to - patrząc na świat zwierząt i ludzi - wygrywa często nie silniejszy tylko sprytniejszy. A spryt jest objawem inteligencji. Tak, wiem, mamy smart telewizory i smart długopisy i co tylko jeszcze, ale wciąż poza nazwą nie mają ze sprytem wiele wspólnego.
Znam osobiście pewnego ptaszka, który potrafił znaleźć sobie miejsce z któego fale dźwiękowe wywoływane jego świergotem są wielokrotnie wzmacniane odbiciami od ścian budynków. I to jego śpiew wabiący damy w tym roku wygrywa sezon. Zresztą,  każdy chyba właściciel psa, kota czy innego stworzenia potrafi wskazać zachowania swojego pupila świadczące o inteligencji (a bywa, że i cwaniactwie). Moja labradorka np. aby dostać się na fotel zajmowany przez bokserkę biegnie w stronę okna ujadając, bokserka zrywa się z fotela i biegnie również, a tymczasem labradorka szybko zawraca i pakuje się na opuszczony fotel. Sztuczka działa za każdym razem, być może bokserka nieco wolniej się uczy. Tu mamy do czynienia z klasyczną strategią odwracania uwagi i z oszustwem.

Czy komputer potrafi świadomie nas oszukać?

I nie mam tu na myśli zwykłego wykonania złośliwego programu stworzonego przez człowieka, tylko oszustwo z inicjatywy samego komputera...
W mojej ocenie - jednak nie. Podsumowując, komputer (czy inna maszyna):
- nie ma emocji,
- nie ma świadomości własnego "ja", czyli istnienia,
- nie potrafi przekroczyć pewnego progu językowej abstrakcji* koniecznej do zrozumienia człowieka,
- nie rozróżnia sam z siebie które z przechowywanych danych są ważniejsze a które mniej ważne, tak jak my potrafimy organizować sobie w pamięci to czego się w życiu nauczyliśmy.
Nie bierze więc pod uwagę w swoim "rozumowaniu" tych właśnie elementów, które dla nas często są decydujące przy podejmowaniu decyzji. A skoro wszystkie wnioski stanowią wyłącznie odbicie i przetworzenie danych wejściowych bez właściwego ludziom krytycyzmu (pochodzącego w dużej mierze właśnie ze wskazanych wyżej elementów) to aby te wyniki były najwierniej oddające stan rzeczy z możliwych do uzyskania - musimy dbać o to,  żeby jego dane wejściowe były maksymalnie wysokiej jakości.
Aha, jak widać, nawet pisząc o sztucznej inteligencji znów wracam do jakości danych.

Bo zawsze trzeba pamiętać, że jakość danych wejściowych jest kluczowa przy wszelkich analizach

 
Gratuluję tym, którzy dobrnęli do końca tekstu. Z jednej strony - może to lepiej, że maszyny nie są cwane. Nie dalej jak dziś czytałam o zmywarce, która ma możliwość łączenia się z internetem i dziurę w zabezpieczeniach, pozwalającą przechwycić kontrolę nad urządzeniem. To, że jakiś człowiek przechwyci urządzenie i np. poleci mu robić nam zdjęcia, a potem spróbuje nas nimi szantażować to mimo niesmaku jakoś jest realne (no co? nie mówię od razu, że wszyscy chodzą po domu w samych gaciach albo i bez, ale nie zawsze człowiek chce się światu pokazywać od razu po wstaniu z łóżka. I na pytanie po co zmywarce kamera można odpowiedzieć: a po co jej internet? Jeśli tylko do uruchomienia, wystarczy programator. Więcej wysiłku wymaga zapakowanie jej naczyniami niż samo wciśnięcie guzika, więc więcej sensu by miało wyposażenie jej w ręce na teleskopowych przegubach, żeby sobie te naczynia zbierała po całym domu i pakowała do środka...Nawiasem mówiąc, najwięcej sensu ma kamera przy lodówce, zwłaszcza gdy jeden z domowników musi zachowywać dietę a drugi musi pilnować, żeby ten pierwszy jej przestrzegał). Natomiast pomysł, że zmywarka sama sobie szantaż wymyśli jakoś mi się nie mieści w głowie.
 
Mimo to mogę się mylić w swoich stwierdzeniach. W końcu Stanisław Lem przewidział czytnik e-booków, dlaczego miałby się pomylić w przewidywaniach w Bajkach Robotów?
 
------------------------------------------------------------------------------------------------------------------------------------------------------------------
*językowe abstrakcje pochodzą zazwyczaj z kultury, o której nie napisałam, ale która wraz z religią czy stosunkiem do niej budują nasze postrzeganie świata.
Joomla templates by a4joomla