Przejdź do treści
ohistorie logo

ISSN 2545-3459

Menu główne
  • O nas
    • Wydawca
    • Redakcja
  • Ohistorie
  • Kategorie
    • Artykuły
    • Aktualności
    • Opinie
    • Varia
    • Wywiady
    • wszystkie
    • Edukacja
    • Filmy
  • Kontakt
  • Współpraca
    • Informacja dla Autorów
  • Archiwum Ohistorie
  • Dom
  • 2026
  • maj
  • J
  • WOJCIECH WRZOSEK Wycinanki (241) Czy maszyna może myśleć? Cz. II Intencjonalność
  • Felietony
  • Varia

WOJCIECH WRZOSEK Wycinanki (241) Czy maszyna może myśleć? Cz. II Intencjonalność

Ewa Solska 5 maja 2026 9 minutes read
241up


 

John Searle prowadzi nas ku temu co było motywem wielu felietonów. Ilustruje jak niektórzy przedstawiciele dyscyplin formalnych i nauk przyrodniczych podejmując fundamentalne dla swych dyscyplin problemy poznawcze wpadają w objęcia filozofii. Tam one przybierają postać już tylko zagadnień filozoficznych. Jest to – jak dla mnie – świadectwem granic poznania dyscyplinarnego lub ich braku. Jeśli problemy badawcze nauk niehumanistycznych jakoby podążają ku formułom filozoficznym stają się problemami humanistycznymi.

Nie dziwi przeto, że wtedy gdy rozważamy pytania przyrodoznawcze, techniczne, czy formalne, gdy tylko stawiamy kolejno pytania dlaczego, to istnieje duża szansa na to, że wylądujemy w polu nauk o człowieku.

Pora na to, aby zilustrować tę tezę na przykładzie twórczości Searle`a.

Powyższe pytanie tytułowe – czy maszyna może myśleć? – prowadzi nas do właściwego – jak twierdził Searle pytania zasadniczego:

„(…) czy coś mogłoby myśleć, rozumieć, i tak dalej, wyłącznie za sprawą tego, że jest komputerem o właściwym programie? Czy to, że coś ucieleśnia jakiś program – rzecz jasna właściwy program – może być samo przez się wystarczającym warunkiem rozumienia”? (…) Odpowiedź jest przecząca. Dlaczego?

Ponieważ same działania na symbolach formalnych nie mają żadnej intencjonalności, są zupełnie bezsensowne, nie są nawet działaniami na symbolach, skoro owe symbole niczego nie symbolizują. Mówiąc w żargonie językoznawców, mają one jedynie składnię, lecz nie semantykę. Intencjonalność taka, jaką wydają się mieć komputery, jest wyłącznie w umysłach tych, którzy je programują, i tych  którzy używają komputerów, którzy wprowadzają coś na wejściu i interpretują stany wyjścia.”[1]

I dalej:

„Tylko coś takiego, co ma takie same możliwości przyczynowe jak mózgi może mieć intencjonalność, a choć człowiek mówiący po angielsku ma właściwe dla intencjonalności tworzywo, łatwo zrozumieć, że zapamiętując program nie dostaje on żadnej dodatkowej intencjonalności, zapamiętanie go bowiem nie daje mu znajomości języka chińskiego.”[2]

Intencjonalność to – powtórzmy – sedno różnicy między komputerem (programem komputerowym) a mózgiem i umysłem:

„(…) program jest czysto formalny, a stany intencjonalne nie są w ten sposób formalne. Definiuje się je w terminach ich treści, nie zaś formy. Na przykład przekonania, że pada deszcz, nie definiuje się jako czegoś, co ma pewien kształt formalny, lecz jako pewna treść myślową, posiadająca warunki, w których jest spełniona, kierunek, gdzie leży coś co jej odpowiada i temu podobne własności. W gruncie rzeczy przekonanie takie jak to nie otrzymuje w ogóle kształtu formalnego w sensie syntaktycznym, to samo przekonanie bowiem można wyrazić w różnych systemach językowych na nieskończenie wiele różnych syntaktycznie sposobów.”[3]

W starym tekście Searle`a znajdujemy w gruncie rzeczy to co brzmi w tezach wypowiadanych ostatnio w jego wywiadach i wykładach. Oto efektowna konkluzja naszych poszukiwań tropem angielskiego filozofa:

„Czy maszyna może myśleć? Moim zdaniem, tylko maszyna może myśleć, a w istocie myśleć mogą tylko maszyny bardzo szczególnych rodzajów, mianowicie mózgi i maszyny o takich samych jak mózgi mocach przyczynowych. I to jest główny powód, dla którego mocny program SI miał tak mało do powiedzenia o maszynach. Na mocy swej definicji, dotyczy on programów, programy zaś nie są maszynami. Intencjonalność jest zjawiskiem biologicznym, niezależnie od tego, czym jest poza tym, i jest prawdopodobnie równie zależna przyczynowo od swoistej biochemii procesów, z których się wywodzi, jak laktacja, fotosynteza czy inne zjawiska biologiczne. Nikt nie przypuszcza, że moglibyśmy wytworzyć mleko i cukier dokonując komputerowej symulacji formalnej sekwencji cząstek, które uczestniczą w laktacji i fotosyntezie, ale gdy w grę wchodzi umysł, jest wielu ludzi skłonnych wierzyć w taki cud z powodu głębokiego i zastarzałego dualizmu, umysł, o którym mówią, to rzecz formalnych procesów, coś niezależnego od zupełnie swoistych przyczyn materialnych, od których zależą mleko i cukier.”[4]

Aby bronić tego dualizmu, często wyraża się nadzieję, ze mózg jest komputerem cyfrowym (skądinąd pierwsze komputery często nazywano „mózgami elektronicznymi”). Ale jest to beznadziejne. Mózg jest oczywiście cyfrowym komputerem, ponieważ wszystko jest cyfrowym komputerem, mózgi też. Rzecz w tym, ze przyczynowa zdolność mózgu do wytworzenia intencjonalności nie może polegać na tym, ze urzeczywistnia on program komputerowy, każdy bowiem program, jaki chcemy, ma to do siebie, ze cos może go urzeczywistnić, a jednak nie mieć żadnych stanów mentalnych. Czymkolwiek jest to, co robi mózg, , by wytworzyć intencjonalność, nie może to polegać na urzeczywistnieniu programu, skoro żaden program nie wystarcza sam przez się, by wytworzyć intencjonalność.”[5]

Dlatego zapewne Searle używa określenia w rodzaju intentional causation dla opisu relacji mózg/umysł.[6]



[1] Searle R.J., Umysły, mózgi…, s. 319 (wyróżnienie moje W.W.). “But could something think, understand, and so on solely in virtue of being a computer with the right sort of program? Could instantiating a program, the right program of course, by itself be a sufficient condition of understanding?” This I think is the right question to ask, though it is usually confused with one or more of the earlier questions, and the answer to it is no. „Why not?” Because the formal symbol manipulations by themselves don’t have any intentionality; they are quite meaningless; they aren’t even symbol manipulations, since the symbols don’t symbolize anything. In the linguistic jargon, they have only a syntax but no semantics. Such intentionality as computers appear to have is solely in the minds of those who program them and those who use them, those who send in the input and those who interpret the output.” Searle R.J., Minds, brains and programms…, p. 422.

[2] Tamże, p. 320. («  (…) only something that has the same causal powers as brains can have intentionality – and though the English speaker has the right kind of stuff for intentionality you can easily see that he doesn’t get any extra intentionality by memorizing the program, since memorizing it won’t teach him Chinese’, tamże, p. 423.). Ja, tutejsze causal powers, rozumiem jako możliwości/siły sprawcze niż możliwości przyczynowe – jak u tłumacza. Bo to chyba raczej mental causation jak określa Giuseppe Vicari w książce Beyond Conceptual Dualism: Ontology of Consciousness, Mental Causation, and Holism in John R. Searle’s Philosophy of Mind, Rodopi 2008, ze wstępem Searle`a. Poniżej okładka książki Vicariego. Oto opinia Barry`ego Smitha: (…) Searle rozwija całkowicie nową˛ teorię˛ intencjonalnej kauzalności. Odwołuje się˛ ona do faktu, że dana intencja jest spełniona wtedy, gdy to właśnie sama ta intencja powoduje spełnienie pozostałych warunków satysfakcji. Tak więc mój zamiar podniesienia ręki spełni się˛ nie po prostu wtedy, gdy podniosę˛ rękę˛, ale dopiero wtedy, gdy owo podniesienie ręki zostanie spowodowane moim zamiarem. Smith B., John Searle: Od aktów mowy do rzeczywistości społecznej, „Roczniki Filozoficzne”, t. LI, zeszyt 1, Lublin 2003, s. 276.

[3] Tamże, s. 320;  “the program is purely formal, but the intentional states are not in that way formal. They are defined in terms of their content, not their form. The belief that it is raining, for example, is not defined as a certain formal shape, but as a certain mental content with conditions of satisfaction, a direction of fit (see Searle 1979), and the like. Indeed the belief as such hasn’t even got a formal shape in this syntactic sense, since one and the same belief can be given an indefinite number of different syntactic expressions in different linguistic systems.”.  Tamże, p. 423. Dzięki wersji oryginalnej wiemy, ze bywa w niej nieco więcej niż tu polskiej. Nie tylko w „zawartości” oryginalnych pojęć…

[4] Searle R.J., Umysły, mózgi…, s. 324 (wyróżnienie. moje W.W.). „Could a machine think?” My own view is that only a machine could think, and indeed only very special kinds of machines, namely brains and machines that had the same causal powers as brains. And that is the main reason strong AI has had little to tell us about thinking, since it has nothing to tell us about machines. By its own definition, it is about programs, and programs are not machines. Whatever else intentionality is, it is a biological phenomenon, and it is as likely to be as causally dependent on the specific biochemistry of its origins as lactation, photosynthesis, or any other biological phenomena. No one would suppose that we could produce milk and sugar by running a computer simulation of the formal sequences in lactation and photosynthesis, but where the mind is concerned many people are willing to believe in such a miracle because of a deep and abiding dualism: the mind they suppose is a matter of formal processes and is independent of quite specific material causes in the way that milk and sugar are not. Tamże, p. 424).

[5]“In defence of this dualism the hope is often expressed that the brain is a digital computer (early computers, by the way, were often called „electronic brains”). But that is no help. Of course the brain is a digital computer. Since everything is a digital computer, brains are too. The point is that the brain’s causal capacity to produce intentionality cannot consist in its instantiating a computer program, since for any program you like it is possible for something to instantiate that program and still not have any mental states. Whatever it is that the brain does to produce intentionality, it cannot consist in instantiating a program since no program, by itself, is sufficient for intentionality.”  Tamże, p. 424.

[6] …sometimes they cause things to happen, by way of intentional causation to bring about a match – that is, to bring about the state of affairs they represent, their own conditions of satisfaction. :, Searl R.J., Minds, brains…, p. 57 .

O autorze

Ewa Solska

Administrator

Wyświetl wszystkie posty

Post navigation

Previous: Mateusz Wyżga. Wycinanki staropolskie (8) Czarownica Magdalena

Related News

1777447439297
14 minutes read
  • Felietony
  • Varia

Mateusz Wyżga. Wycinanki staropolskie (8) Czarownica Magdalena

Ewa Solska 1 maja 2026 0
240up
4 minutes read
  • Felietony
  • Varia

WOJCIECH WRZOSEK Wycinanki (240) Stany umysłowe są zjawiskiem biologicznym?

Ewa Solska 22 kwietnia 2026 0
239up
8 minutes read
  • Felietony
  • Varia

WOJCIECH WRZOSEK Wycinanki (239) Mózgi są biologicznymi maszynami

Ewa Solska 7 kwietnia 2026 0

Nasze najnowsze teksty

241up
9 minutes read
  • Felietony
  • Varia

WOJCIECH WRZOSEK Wycinanki (241) Czy maszyna może myśleć? Cz. II Intencjonalność

Ewa Solska 5 maja 2026 0
1777447439297
14 minutes read
  • Felietony
  • Varia

Mateusz Wyżga. Wycinanki staropolskie (8) Czarownica Magdalena

Ewa Solska 1 maja 2026 0
240up
4 minutes read
  • Felietony
  • Varia

WOJCIECH WRZOSEK Wycinanki (240) Stany umysłowe są zjawiskiem biologicznym?

Ewa Solska 22 kwietnia 2026 0
Zrzut ekranu 2026-04-11 144347
1 minute read
  • Aktualności
  • Dyskusje
  • Filmy

O historii, historiografii, pamięci i więcej… Rafał Stobiecki, Tomasz Siewierski, Dobrochna Kałwa

Piotr Witek 16 kwietnia 2026 0
  • O nas
  • Ohistorie
  • Kategorie
  • Kontakt
  • Współpraca
  • Archiwum Ohistorie
Copyright © All rights reserved. | MoreNews przez AF themes.