Przejdź do treści
ohistorie logo

ISSN 2545-3459

Menu główne
  • O nas
    • Wydawca
    • Redakcja
  • Ohistorie
  • Kategorie
    • Artykuły
    • Aktualności
    • Opinie
    • Varia
    • Wywiady
    • wszystkie
    • Edukacja
    • Filmy
  • Kontakt
  • Współpraca
    • Informacja dla Autorów
  • Archiwum Ohistorie
  • Dom
  • 2026
  • marzec
  • J
  • WOJCIECH WRZOSEK Wycinanki (238) Searl`a Chinese Room Argument (CRA)
  • Felietony
  • Varia

WOJCIECH WRZOSEK Wycinanki (238) Searl`a Chinese Room Argument (CRA)

Ewa Solska 24 marca 2026 8 minutes read
238up


Searl`a Chinese Room Argument (CRA)[1]

Jak dla mnie, definicja komputera jako komputera cyfrowego nadal obowiązuje. Nie wiem niestety co tu w kontekście argumentacji Searle`a zmienia tzw. komputer kwantowy. Sądząc z nazwy nic w istocie rzeczy podnoszonej przez Searle`a. Jeśli natomiast usłyszymy coś na temat bio/neuro a najlepiej socjokomputerze to sytuacja – i tym samym opinia Searle`a – może ulec zmianie.[2]

Przedstawiamy experimentum crucis argumentacji amerykańskiego filozofa Chinese Room Argument (CRA.). Najpierw wytniemy „definicyjne” kawałki CRA, następnie dodatkowo wybrane elementy replik Searle`a pod adresem oponentów, obrońców programu Silnej Sztucznej Inteligencji (SAI), krytyków CRA.

Słynny Argument przeciwko  SAI zwany chińskim pokojem, przybiera postać eksperymentu myślowego.

„Wyobraźmy sobie, że zespół programistów napisał program, który jest w stanie symulować rozumienie języka chińskiego. Zatem, na przykład, jeśli komputerowi zadaje się pytanie w tym języku, może porównać je ze swoją pamięcią lub bazą danych i wyprodukować w języku chińskim odpowiedź na zadane pytanie. Załóżmy, dla celów dyskusji, że odpowiedzi te są tak dobre jak odpowiedzi prawdziwej osoby, której ojczystym językiem jest język chiński. Czy w takiej sytuacji komputer rozumie język chiński? Czy rozumie go dokładnie tak, jak użytkownicy języka chińskiego rozumieją swój ojczysty język? Wyobraźmy sobie teraz, że ktoś z nas jest zamknięty w pokoju, i że w pokoju tym jest szereg pudeł wypełnionych znakami z języka chińskiego. Załóżmy, że osoba ta, podobnie jak autor myślowego eksperymentu, nie zna języka chińskiego, otrzymała jednak napisaną w jej ojczystym języku książkę z regułami manipulowania znakami języka chińskiego. Reguły te opisują używanie symboli w sposób czysto formalny, opisują manipulowanie nimi w sposób syntaktyczny, nie semantyczny. Mogą mieć postać: „Wybierz ten znak z podwójnym zakrętasem z pudła numer jeden i umieść go za znakiem z dwoma zawijasami z pudła numer dwa”. Przyjmijmy teraz, że w pokoju pojawiają się jakieś nowe symbole, a osoba w nim siedząca otrzymuje instrukcje, jakie chińskie symbole ma wysłać z pokoju w odpowiedzi na te, które się pojawiły. Załóżmy, że siedzący w pokoju nie wie, iż symbole przesyłane do pokoju przez ludzi z zewnątrz nazywane są przez nich pytaniami, zaś symbole, które siedzący w pokoju wysyła na zewnątrz, nazywane są odpowiedziami na te pytania. Przyjmijmy poza tym, że programiści napisali na tyle dobry program, zaś siedząca w pokoju osoba jest do tego stopnia sprawna w manipulowaniu symbolami, że jej odpowiedzi są nieodróżnialne od odpowiedzi osoby faktycznie znającej język chiński. Zatem jakaś osoba zamknięta jest w pokoju, w którym wybiera symbole chińskie i wysyła je w odpowiedzi na inne przychodzące do pokoju chińskie symbole. W sytuacji, jaką tu opisałem, nie ma możliwości, by w wyniku takiej manipulacji formalnie zdefiniowanymi symbolami naprawdę nauczyć się języka chińskiego.[3]

Przytoczmy dwa jedynie z całego kompleksu argumentów Searle`a:

„Meritum mojego myślowego eksperymentu jest następujące: realizując taki formalny komputerowy program, z punktu widzenia obserwatora z zewnątrz, zachowujemy się dokładnie tak, jakbyśmy rozumieli język chiński, faktycznie jednak nie rozumiemy ani jednego słowa z tego języka. Jeśli wykonanie komputerowego programu symulującego rozumienie języka chińskiego nie jest wystarczające dla nas, byśmy ten język rozumieli, nie może być wystarczające także dla maszyny liczącej. Wyjaśnienie tego stanu rzeczy jest całkiem proste. Jeśli w takiej sytuacji człowiek nie rozumie chińskiego, to również inne „komputery” go nie rozumieją, gdyż żaden komputer cyfrowy nie może, dzięki temu że zrealizuje program, uzyskać zdolności, której nie uzyskuje człowiek. To wszystko, co ma komputer i co my mamy siedząc w chińskim pokoju, jest jedynie formalnym programem, pozwalającym na manipulowanie nie zinterpretowanymi chińskimi symbolami. Powtórzmy to: komputer opanowuje tylko syntaktykę, nie zaś semantykę. Cały morał naszej historii o chińskim pokoju przypomina nam to, co już wiemy. Rozumienie języka – a z pewnością i posiadanie wszelkich innych stanów umysłowych – wymaga czegoś więcej niż garści symboli formalnych. Konieczna tu jest jeszcze interpretacja, lub znaczenie związane z tymi symbolami.”[4]



[1] Problem ten zasłużył sobie na „monografię” (okładka u góry z lewej), hasło: https://en.wikipedia.org/wiki/Chinese_room. ;  Bishop Mark J., Dancing with Strong Artificial Intelligence and Panpsychism, https://www.researchgate.net/publication/234128183, 2002.

[2] Napomykam o ustaleniach przyjętych tydzień temu w wycinance (237).

[3] Searle R. J. Umysł, mózg i nauka, przeł. Jerzy Bobryk, PWN, Warszawa 1995, s. 28-29; (Imagine that a bunch of computer programmers have written a program that will enable a computer to simulate the understanding of Chinese. So, for example, if the computer is given a question in Chinese, it will match the question against its memory, or data base, and produce appropriate answers to the questions in Chinese. Suppose for the sake of argument that the computer’s answers are as good as those of a native Chinese speaker. Now then, does the computer, on the basis of this, understand Chinese, does it literally understand Chinese, in the way that Chinese speakers understand Chinese? Well, imagine that you are locked in a room, and in this room are several baskets full of Chinese symbols. Imagine that you (like me) do not understand a word of Chinese, but that you are given a rule book in English for manipulating these Chinese symbols. The rules specify the manipulations of the symbols purely formally, in terms of their syntax, not their semantics. So the rule might say : 'Take a squiggle-squiggle sign out of basket number one and put it next to a squoggle-squoggle sign from basket number two.’ Now suppose that some other Chinese symbols are passed into the room, and that you are given further rules for passing back Chinese symbols out of the room. Suppose that unknown to you the symbols passed into the room are called 'questions’ by the people outside the room, and the symbols you pass back out of the room are called 'answers to the questions’. Suppose, furthermore, that the programmers are so good at designing the programs and that you are so good at manipulating the symbols, that very soon your answers are indistinguishable from those of a native Chinese speaker. There you are locked in your room shuffling your Chinese symbols and passing out Chinese symbols in response to incoming Chinese symbols. On the basis of the situation as I have described it, there is no way you could learn any Chinese simply by manipulating these formal symbols. Searle R. J., Minds Brains and Science, Harvard University Press, Cambridge, Massachusetts, 2003, p. 30 ; Chinese Room Argument | Internet Encyclopedia of Philosophy.

[4] Searle R.J., Umysł…, s. 29-30; oczywiście i już w cytowanych tekstach oraz w innych pracach Searle`a kopalnia idei w sprawie: Is the Brain a Digital Computer?, “Proceedings of the American Philosophical Association”, vol.64, 1990, pp.21-37 ;  The Rediscovery of Mind, (Cambridge, MA 1992: MIT Press) ;  The Mystery of Consciousness, (Londo1994: Granta Books). Now the point of the story is simply this: by virtue of implementing a formal computer program from the point of view of an outside observer, you behave exactly as if you understood Chinese, but all the same you don’t understand a word of Chinese. But if going through the appropriate computer program for understanding Chinese is not enough to give you an understanding of Chinese, then it is not enough to give any other digital computer an understanding of Chinese. And again, the reason for this can be stated quite simply. If you don’t understand Chinese, then no other computer could understand Chinese because no digital computer, just by virtue of running a program, has anything that you don’t have. All that the computer has, as you have, is a formal program for manipulating uninterpreted Chinese symbols. To repeat, a computer has a syntax, but no semantics. The whole point of the parable of the Chinese room is to remind us of a fact that we knew all along. Understanding a language, or indeed, having mental states at all, involves more than just having a bunch of formal symbols. It involves having an interpretation, or a meaning attached to those symbols. And a digital computer, as defined, cannot have more than just formal symbols because the operation of the computer, as I said earlier, is defined in terms of its ability to implement programs. And these programs are purely formally specifiable – that is, they have no semantic content ; Searl R.J., Mains, Brains…pp. 30-31.

O autorze

Ewa Solska

Administrator

Wyświetl wszystkie posty

Post navigation

Previous: Mateusz Wyżga. Wycinanki staropolskie (6) Dziewczyna w studni

Related News

fot dr Bartosz Kałużny
7 minutes read
  • Felietony
  • Varia

Mateusz Wyżga. Wycinanki staropolskie (6) Dziewczyna w studni

Ewa Solska 20 marca 2026 0
237up
7 minutes read
  • Felietony
  • Varia

WOJCIECH WRZOSEK Wycinanki (237) Co to jest strong artificial intelligence (SAI)

Ewa Solska 10 marca 2026 0
fot dr Bartosz Kałużny
12 minutes read
  • Felietony
  • Varia

Mateusz Wyżga. Wycinanki staropolskie (5) Frustracja Świętosława

Ewa Solska 6 marca 2026 0

Nasze najnowsze teksty

238up
8 minutes read
  • Felietony
  • Varia

WOJCIECH WRZOSEK Wycinanki (238) Searl`a Chinese Room Argument (CRA)

Ewa Solska 24 marca 2026 0
fot dr Bartosz Kałużny
7 minutes read
  • Felietony
  • Varia

Mateusz Wyżga. Wycinanki staropolskie (6) Dziewczyna w studni

Ewa Solska 20 marca 2026 0
237up
7 minutes read
  • Felietony
  • Varia

WOJCIECH WRZOSEK Wycinanki (237) Co to jest strong artificial intelligence (SAI)

Ewa Solska 10 marca 2026 0
fot dr Bartosz Kałużny
12 minutes read
  • Felietony
  • Varia

Mateusz Wyżga. Wycinanki staropolskie (5) Frustracja Świętosława

Ewa Solska 6 marca 2026 0
  • O nas
  • Ohistorie
  • Kategorie
  • Kontakt
  • Współpraca
  • Archiwum Ohistorie
Copyright © All rights reserved. | MoreNews przez AF themes.