Get 20M+ Full-Text Papers For Less Than $1.50/day. Start a 14-Day Trial for You or Your Team.

Learn More →

Informacja kognitywna jako obszar badawczy kognitywistyki

Informacja kognitywna jako obszar badawczy kognitywistyki Przegld Filozoficzny ­ Nowa Seria R. 22: 2013, Nr 2 (86), ISSN 1230­1493 DOI: 10.2478/pfns-2013-0041 Krystyna Misiuna Slowa kluczowe: informacja, kognitywistyka, praktyczna obliczalno, informacja powierzchniowa, informacja przekonaniowa, prawdopodobiestwo warunkowe, wnioskowania dedukcyjne, wnioskowania niededukcyjne, informacja sprzeczna 1. Wstp W roku 2009 powstalo na uniwersytecie Tsinghua wiatowe Centrum Oblicze Neuronalnych i Kognitywnych (Center for Neural and Cognitive Computation), które wród swoich licznych obszarów badawczych wymienia przede wszystkim informatyk (computer science), nauk o informacji (information science) i kognitywistyk (cognitive science). Centrum okrela swój glówny kierunek poszukiwa jako badanie wewntrznego przetwarzania informacji, natomiast now dyscyplin badawcz, która swoje powstanie zawdzicza takim badaniom, nazywa cognitive informatics (informatyka kognitywna). Problematyka zwizana z informacj kognitywn, któr podejmuj w tym artykule, mieci si w zakresie tak rozumianej kognitywnej informatyki. Oto kilka faktów empirycznych uzasadniajcych potrzeb podjcia bada w tym obszarze empirycznej rzeczywistoci, do którego naley informacja kognitywna. Wedlug wspólczesnych oszacowa ilo informacji zebranej w cigu calego swego ycia, jak przechowuje w swojej pamici osoba w wieku 70 lat, wynosi 2 × 109 bitów1. Przyjmuje si, e zakodowanie najprostszej deklaratywnej informacji wymaga okolo 1000 bitów. Zatem okolo dwóch milionów Zob. Landauer 1986. Krystyna Misiuna deklaratywnych informacji zdobywamy w cigu calego ycia2. Takie s empiryczne fakty, które odsylaj do pojcia informacji kognitywnej. Spraw otwart jest natomiast to, jakie mechanizmy kognitywne rzdz procesem zdobywania i przetwarzania takiej informacji. Z punktu widzenia neuronauki problem zdobywania informacji opisywany jest przez liczb neuronów, jaka w ludzkim mózgu tworzy wiadom percepcj3. Liczb t szacuje si w przyblieniu na 104. Naszym celem jest modelowanie informacji kognitywnej, a w szczególnoci deklaratywnej informacji kognitywnej, któr tworzy zbiór stwierdze niekonieczne prawdziwych, lecz takich, co do których podmiot jest przekonany, e s prawdziwe. Informacja deklaratywna odróniana jest od informacji proceduralnej, która mówi o tym, jak co zrobi, jak wykona jakie zadanie ­ okrela si j potocznie zwrotem know-how. 2. Co to jest informacja kognitywna? Zalómy wstpnie, e znaczenie terminu ,,informacja kognitywna" jest bliskie znaczeniu dwuargumentowego predykatu: X jest poinformowany przez Y, gdzie X jest nazw racjonalnego podmiotu o ograniczonych zasobach pamici i czasu. Relacj denotowan przez dwuargumentowy predykat ,,jest poinformowany przez" nazwijmy bazow relacj informacji kognitywnej (BRCI). Relacja ta moe by uwaana za reprezentacj kognitywnego kanalu informacyjnego pomidzy podmiotem X a Y. To, co jest nazywane przez Y, zaley od teorii informacji kognitywnej, a w szczególnoci od przyjmowanego przez ni poziomu abstrakcji. Zalómy wstpnie, e jest to jaki inny racjonalny podmiot. Warunkiem koniecznym zachodzenia bazowej relacji BRCI jest to, e podmiot X rozpoznaje informacj przekazywan przez Y-a jako now w stosunku do swego obecnego stanu informacyjnego. Ponadto, zachodzenie relacji bazowej BRCI midzy X-em i Y-iem implikuje, e: X jest poinformowany, e A, gdzie A jest stwierdzeniem zawierajcym now informacj w stosunku do obecnego stanu informacyjnego X-a. Zalómy, e relacja BRCI jest kognitywnym Zob. Chi, Ohlsson 2005: 372. Por. Gao 2008: 48. kanalem informacji deklaratywnej. Poniewa informacja zawarta w stwierdzeniu A jest nowa, wic tym samym powoduje ona zmian obecnego stanu informacyjnego w nowy stan informacyjny podmiotu X. Bdziemy zakladali, e kada nowa informacja powiksza obecny stan informacyjny podmiotu ze stanu obecnego v do nowego stanu informacyjnego v'. Ogólnie mówic, istniej dwa róne sposoby prowadzce do nowego stanu informacyjnego. Monotoniczny sposób poszerzania stanu informacyjnego polega na tym, e informacja aktualnie obecna nie jest odrzucana, natomiast do obecnego stanu informacyjnego jest dodawana informacja nowa. Tym samym przejcie od obecnego stanu informacyjnego do nowego stanu informacyjnego jest monotoniczne. Mówic nieco bardziej formalnie, warunek monotonicznoci procesu zmiany obecnego stanu informacyjnego v w nowy stan informacyjny v' moe by wyraony w nastpujcy sposób: dla kadego B: jeli v zawiera informacj, e B, i jeli informacja w stanie v jest zawarta w informacji w stanie v', to stan informacyjny v' zawiera równie informacj, e B. Dopuszczamy równie inny sposób poszerzenia obecnego stanu informacyjnego, a mianowicie taki, gdzie nowa informacja jest rezultatem zmiany niemonotonicznej. Jest tak wtedy, gdy warunek monotonicznoci, sformulowany wyej, nie zachodzi. Zobaczymy poniej, e zmiana stanu informacyjnego zawierajcego informacj sprzeczn moe by modelowana bez zakladania warunku monotonicznoci. Dopuszczamy równie niemonotoniczne zmiany stanu informacyjnego, które nie s wynikiem informacji sprzecznej. Na przyklad zdarza si, e uczeni zastpuj nawet najbardziej fundamentalne teorie nowymi teoriami w wietle nowych faktów. Tak wic dopuszczamy, e relacja BRCI zachodzi midzy obecnym stanem informacyjnym podmiotu X a jego nowym stanem informacyjnym, bdcym wynikiem monotonicznej, jak równie niemonotonicznej zmiany. Zakladamy ponadto, e relacja BRCI spelnia nastpujce warunki: Warunek maksymalny: Relacja bazowa BRCI powinna by praktycznie obliczalna. Warunek minimalny: Relacja bazowa BRCI powinna by efektywna. Warunek maksymalny implikuje, e jeli informacja pochodzca od Y-a jest zawarta explicite w obecnym stanie informacyjnym X-a, wtedy bazowa relacja bycia poinformowanym nie zachodzi midzy X-em a Y-iem, chocia relacja bazowa zachodzi, gdy informacja pochodzca od Y-a jest zawarta implicite w obecnym stanie informacyjnym Y-a. Warunek minimalny postulowany byl ju przez Hintikk (1973: 228). Zwracal on uwag, e powinnimy wiedzie, ile posiadamy informacji, a tym samym powinnimy wiedzie, o czym zostalimy Krystyna Misiuna poinformowani. Takie przekonanie zaklada, e nasza miara informacji powinna by efektywna. Zdefiniowana przez Hintikk (1970) informacja powierzchniowa (surface information) jest efektywnie obliczalna. Jednak w teorii Hintikki wnioskowania dedukcyjne przeprowadzane w rachunku zda i jednoargumentowym rachunku predykatów 1-go rzdu, które s efektywnie rozstrzygalne, nie dostarczaj informacji, tak jak przekonywali nas o tym neopozytywici, na przyklad Carnap i Bar-Hillel (1952). Obecnie wiemy, e chocia rachunek zda jest efektywnie rozstrzygalny, jest jednak obliczeniowo trudny. Znane dotychczas algorytmiczne procedury rozstrzygania dla rachunku zda maj wykladnicz zloono czasow, gdzie liczba kroków obliczeniowych zaley wykladniczo od iloci zmiennych wystpujcych w formule, a wic s to algorytmy nalece do klasy EXPTIME, której zloono czasow okrelamy wzorem: 2W(n), gdzie W(n) jest symbolem wielomianu od n. Latwo przekona si, e algorytmy nalece do klasy EXPTIME nie s praktycznie obliczalne, gdy rozwaymy program, który wykonuje 2n operacji, zanim si zatrzyma. Dla n = 100, przy zaloeniu, e komputer wykonuje 1012 operacji na sekund, program wymagalby czasu astronomicznego: 4 × 1010 lat! Posiadamy obecnie dowód tego, e problem spelnialnoci dla rachunku zda jest problemem NP-zupelnym4. Problem konsekwencji logicznej: formula q jest konsekwencj logiczn formuly p mona równowanie wyrazi jako problem bdcy negacj spelnialnoci formuly: p q. Z tego wnosimy, e problem konsekwencji logicznej jest problemem nalecym do klasy problemów coNP-zupelnych5. Przyjmujc ogólnie akceptowalne zaloenie, e klasy problemów P i NP nie s identyczne, stwierdzenie NP-zupelnoci, czy te coNP-zupelnoci, jest zarazem stwierdzeniem, e nie istnieje szybki, o wielomianowej zloonoci czasowej, algorytm, który rozstrzyga dany problem. Tym samym dla kadego algorytmu spelnialnoci formul rachunku zda oraz konsekwencji logicznej rachunku zda istniej takie 4 NP jest klas problemów, które mog by rozstrzygnite przy pomocy niedeterministycznej maszyny Turinga w czasie wielomianowym. Dany problem jest NP-zupelny jeli kady problem w tej klasie jest wielomianowo redukowalny do danego problemu. 5 Do klasy coNP nale te problemy, których dopelnienie naley do klasy NP. formuly, które wymagaj ponadwielomianowej zloonoci czasowej, co czyni te problemy praktycznie nieobliczalnymi. Kady problem obliczeniowy, który rozstrzygany jest przez algorytm w czasie wielomianowym, uwaa si za praktycznie obliczalny, natomiast inne problemy, chocia zasadniczo rozstrzygalne algorytmicznie, wymagaj algorytmów, których zloono czasowa jest ponadwielomianowa, i uwaane s za praktycznie nieobliczalne. Zatem warunek efektywnoci, którego spelnienia wymaga Hintikka od miary informacji, nie jest wystarczajcy dla celów praktycznych, poniewa nasza miara informacji, chocia efektywna, moe nie by praktycznie obliczalna. Algorytmiczna rozstrzygalno rachunku zda i jednoargumentowego rachunku predykatów nie musi oznacza, e relacja konsekwencji logicznej tych rachunków nie jest informujca. To, czy tak jest, czy nie, moe zalee od konkretnego systemu dedukcyjnego tych rachunków; niektóre systemy s zbyt zloone, aby uzyskanie wgldu w ich informacyjno bylo moliwe. 3. Modelowanie informacji pochodzcej z wnioskowa dedukcyjnych Powierzchniowej informacji kognitywnej nie utosamiamy z informacj powierzchniow zdefiniowan przez Hintikk. Ogólnie akceptowana opinia jest obecnie taka, e Hintikka nie zdolal przekonujco odeprze pogldu, zgodnie z którym nie istnieje aden obiektywny sens, w jakim wniosek poprawnego formalnie wnioskowania zawiera wicej informacji ni jego przeslanki. To wlanie informacja powierzchniowa miala, zdaniem Hintikki, dawa nam miar informatywnoci wnioskowa dedukcyjnych. Zdefiniujemy powierzchniow informacj kognitywn tak, aby oba warunki, jakie nakladamy na bazow relacj BRCI byly spelnione. Pojcie zblione do naszego pojcia powierzchniowej informacji kognitywnej spotykamy w artykule D'Agostina i Floridiego (2009), gdzie przyjmuje si, e dedukcyjne wnioskowania dostarczaj informacji, która nie jest zawarta w przeslankach, a co najwaniejsze, rozpoznajemy t informacj w sposób praktycznie obliczalny. Autorzy wspomnianego artykulu konstruuj system logiki zda oparty na szczególnych regulach inferencji, majcych charakter regul wprowadzania i eliminowania. Posiada on t wlasno, e to, czy formula P jest wyprowadzana w tym systemie ze skoczonego zbioru formul P, moe by rozstrzygnite w czasie wielomianowym. Wan rónic midzy tym systemem, który w dalszym cigu bdziemy oznaczali symbolem W-E, a innymi systemami dedukcyjnymi korzystajcymi z regul wprowadzania i eliminowania, jest to, e stale logiczne definiowane przez reguly inferencji systemu W-E nie odwoluj si do ,,wirtualnych" stanów informacyjnych. S to takie stany informacyjne, które zawieraj informacj, której nie ma w obecnym Krystyna Misiuna stanie informacyjnym. Reguly systemu W-E definiowane s w taki sposób, który odwoluje si wylcznie do obecnego stanu informacyjnego. Natomiast standardowe reguly wprowadzania i eliminowania ukrywaj informacyjno relacji konsekwencji klasycznego rachunku zda. Ilustracj tego zjawiska jest nastpujcy przyklad (D'Agostino, Floridi 2009: 287): Przyklad 1: Rozwamy regul, która mówi nam, e informacja ,,P Q jest prawd" zawarta jest w naszym obecnym stanie informacyjnym S. Rozwamy teraz powikszenie S przez now informacj: ,,P jest prawd" lub przez now informacj ,,Q jest prawd". W obu przypadkach prowadzi to do stanu informacyjnego, który zawarty jest implicite w obecnym stanie informacyjnym na mocy znaczenia dysjunkcji (alternatywy nierozlcznej). Regula ta oparta jest wic na zaloeniu, e zawsze moliwe jest przejcie ze stanu informacyjnego zawierajcego informacj ,,P Q jest prawdziwe" do stanu informacyjnego zawierajcego ,,P jest prawdziwe", jak te do stanu informacyjnego ,,Q jest prawdziwe". Akceptujc to zaloenie, nasza regula wyjania czciowo znaczenie alternatywy nierozlcznej przez wirtualne stany informacyjne, które mog by osigalne z obecnego stanu informacyjnego S ­ stany informacyjne zdecydowanie bogatsze od obecnego stanu informacyjnego S. Zatem oba wirtualne stany informacyjne zawieraj informacj, która nie jest zawarta w obecnym stanie informacyjnym S. System W-E nie zawiera adnej reguly inferencji, któr ilustrowal powyszy przyklad. Znaczenie operatorów logicznych w systemie W-E jest definiowane przy pomocy regul inferencji, które nie formuluj koniecznego i wystarczajcego warunku dla poszczególnego operatora, lecz nakladaj na dziedzin wartociowa ograniczenia, zachowujce zamierzone znaczenie operatora. Znaczenia te nie pokrywaj si z klasycznymi znaczeniami operatorów logicznych. Z obliczeniowego punktu widzenia istotne jest, e takie operatory logiczne s praktycznie obliczalne. Kady agent, który respektuje znaczenie takich operatorów logicznych, jest w stanie odróni dopuszczalne i niedopuszczalne wartociowania. Na przyklad wartociowanie v(P Q) = 1 i v(P) = 0, zawarte w obecnym stanie informacyjnym, czyni wartociowanie v(Q) = 0 niedopuszczalnym w tym samym stanie informacyjnym. Powiemy, e informacja dotyczca wartoci Q jest zawarta implicite w obecnym stanie informacyjnym na mocy znaczenia dysjunkcji. Przyjmiemy w zwizku z tym nastpujc definicj powierzchniowej informacji kognitywnej. Definicja 1: Powierzchniowa informacja kognitywna jest to calo informacji, jak agent posiada explicite i implicite na podstawie znaczenia ope- ratorów logicznych oraz na mocy zasady zachowania niesprzecznoci ze znaczeniem tych operatorów. Zanim zdefiniujemy pojcie powierzchniowej informacji kognitywnej glbokoci zerowej, musimy najpierw zdefiniowa kognitywny stan informacyjny glbokoci zerowej. Zalómy, e relacja bazowa BRCI zachodzi midzy stanami informacyjnymi reprezentowanymi przy pomocy wartociowa ­ wtedy nasza definicja kognitywnego stanu informacyjnego glbokoci zerowej przyjmie nastpujc posta:6 Definicja 2: Niech A bdzie zbiorem wszystkich dopuszczalnych wartociowa; wtedy dla kadej formuly P jzyka klasycznego rachunku zda L oraz i Î {1, 0}, dopuszczalne wartociowanie v jest kognitywnym stanem informacyjnym glbokoci zerowej, jeli v jest domknite ze wzgldu na warunek: Jeli v È { } Ï A, to Î v. Definicja ta mówi nam, e jeli dodanie, powiedzmy, informacji do stanu informacyjnego v uczyni to wartociowanie niedopuszczalnym, czyli sprzecznym ze znaczeniem glównej stalej logicznej w formule P, to informacja jest zawarta implicite w stanie informacyjnym v i na odwrót. Definicja 3: Informacja kognitywna glbokoci zerowej jest to informacja powierzchniowa, jak posiada agent w kognitywnym stanie informacyjnym glbokoci zerowej. Powstaje naturalne pytanie, w jaki sposób informacja implicite staje si informacj explicite. Byloby nierealistyczne spodziewa si, e podmioty kognitywne zdolne s do przetworzenia calej informacji implicite w informacj explicite w jednym kroku, niezalenie od dlugoci formuly i niezalenie od swych ograniczonych zasobów czasu i pamici. Proces przetwarzania informacji w informacj explicite moe by zaleny od konkretnego podmiotu i jego kognitywnych moliwoci, jak równie od jego indywidualnych celów: od tego, jak daleko chce on pój w swoim rozumowaniu. Taki stan rzeczy rodzi potrzeb rozwaenia kognitywnych stanów informacyjnych rónej glbokoci. Przyklad 2: Rozwamy interpretacj v tak, e v(P Q) = 1, v(P R) = 1, v(Q R) = 1. Aby wywnioskowa, e v(R) = 1, podmiot musi powikszy swój Por. D'Agostino i Floridi 2009: 299. Krystyna Misiuna obecny stan informacyjny co do stwierdzenia P. Chocia informacja o wartoci R jest implicite zawarta w stanie informacyjnym v, to aby uczyni t informacj informacj explicite, podmiot musi rozumowa glbiej: warto logiczna P jest niezdefiniowana w stanie informacyjnym v, lecz dowolny inny stan informacyjny v', który jest zgodny ze stanem v na wszystkich formulach, dla których v jest zdefiniowane i w których P jest zdefiniowane, musi by taki, e albo v'(P) = 0, albo v'(P) = 1. W obu przypadkach warto R jest zdefiniowana przez v' na mocy znaczenia operatora implikacji i dysjunkcji oraz na mocy warunku sformulowanego w definicji informacji kognitywnej glbokoci zerowej. Zatem aby uczyni warto R informacj explicite, podmiot musi rozway moliwe wartoci P, czyli musi rozszerzy obecny stan informacyjny ze wzgldu na P. Inaczej mówic, aby warto R uczyni informacj explicite, podmiot musi rozway wirtualne wartociowania (wirtualne stany informacyjne), które s bardziej dookrelone ni obecny stan informacyjny. Uycie informacji wirtualnej nie powiksza obliczeniowego kosztu wnioskowania7. Przyklad ten pozwala na uogólnienie pojcia glbokoci informacji kognitywnej. Definicja 4: Dla kadej liczby naturalnej k ¹ 0 kognitywny stan informacyjny glbokoci k jest dopuszczalnym wartociowaniem v domknitym ze wzgldu na nastpujcy warunek: jeli istnieje formula atomowa P taka, e v'(Q) = i, gdzie i Î {0, 1} dla kadego kognitywnego stanu informacyjnego v' glbokoci k ­ 1, takiego e v' zgadza si z v na wszystkich formulach, dla których v jest zdefiniowane i v' definiuje warto P, to v(Q) = i dla kadej formuly Q nalecej do jzyka rachunku zda L. Definicja 5: Informacja kognitywna glbokoci k jest to calo informacji, jak posiada agent w kognitywnym stanie informacyjnym glbokoci k. Wprowadzone pojcia umoliwiaj modelowanie podmiotu kognitywnego, dla którego spelniony jest warunek maksymalny relacji bazowej BRCI na dowolnym poziomie k. W kognitywnym stanie informacyjnym dowolnej glbokoci k podmiot kognitywny potrafi rozpozna now informacj, do jakiej prowadzi go wnioskowanie dedukcyjne, poniewa jego procedura rozstrzygania jest praktycznie obliczalna. Informacja kognitywna glbokoci k (dla dowolnej liczby naturalnej k), jak zdobywa podmiot kognitywny w drodze rozumowania dedukcyjnego, nie wyczerpuje fenomenu informacji kognitywnej. Szczególnym rodzajem infor7 Tame: 302. macji kognitywnej jest informacja, któr podmiot X rozpoznaje jako now, lecz która zarazem pozostaje w sprzecznoci z obecnym stanem informacyjnym X-a. Jak wiemy, klasyczna konsekwencja jest domknita na regul ex contradictione sequitur quodlibet (inaczej: ex falso quodlibet), która jako regula zastosowana do informacji kognitywnej jest w wysokim stopniu nierealistyczna. Powstaje zatem naturalne pytanie: jak modelowa informacj sprzeczn? 4. Modelowanie informacji sprzecznej Informacja sprzeczna nie dlatego jest niepodana, e na gruncie logiki klasycznej prowadzi do dowolnego wniosku, lecz dlatego, e rodzi powane problemy zwizane z jej interpretacj, i dlatego, e jest bezuyteczna przy podejmowaniu decyzji koniecznych dla zaplanowanych dziala, jakie musz podejmowa kognitywni agenci. J.M. Dunn pisze: Tak jak le jest wtedy, gdy mamy zbyt malo informacji, tak te jest le, gdy informacji mamy zbyt duo, czsto sprzecznej lub co najmniej niewiarygodnej. Osoba, która zdobyla wyksztalcenie w danej dziedzinie i w analizie informacji, musi j interpretowa. Staje si to coraz trudniejsze, gdy komputery oraz pokrewne technologie informacyjne i komunikacyjne zalewaj nas wszystkich informacj. (...) Przy takim zalewie informacj staje si coraz bardziej konieczne nie tylko zautomatyzowanie wyszukiwania, lecz równie zautomatyzowanie logiki stosowanej do wyników takiego wyszukiwania (Dunn 2010: 429). Byloby naiwne sdzi, e w przypadku informacji sprzecznej problem moe by rozwizany, gdy policzymy ródla informacji i podejmiemy decyzj zgodnie z tym, jak glosi ich wikszo. W szczególnym przypadku, gdy jedno ródlo mówi, e P, i informacja ta nie jest sprzeczna z naszym obecnym stanem informacyjnym, a drugie ródlo mówi, e nie-P, co przeczy naszemu obecnemu stanowi informacyjnemu, odwolujemy si do jeszcze jednego ródla informacji. Jeli wikszo ródel stwierdza P, to akceptujemy P, a gdy wikszo stwierdza nie-P, to akceptujemy nie-P. Jednak nie ma adnej gwarancji, e jeli wikszo stwierdza to samo, to stwierdzenie takie jest blisze prawdy. Modelowanie informacji sprzecznej wymaga innej logiki ni klasyczna. Bdziemy wic musieli skorzysta z jakiej logiki parakonsystentnej. Najlepsza dla naszego celu jest niewtpliwie 4-wartociowa logika Dunna-Belnapa. Przypomnijmy, e cztery wartoci tej logiki rozumiane s w taki sposób, e dwie z nich s klasycznymi wartociami prawdy i falszu (oznaczanymi odpowiednio przez t i f), a dwie pozostale wartoci rozumiane s epistemicznie jako informacja sprzeczna (B) i jako brak informacji (N). Te cztery elementy Krystyna Misiuna tworz krat De Morgana (DM4) z dwoma porzdkami: porzdkiem prawdy i porzdkiem informacji. Pojcie interpretacji i relacji konsekwencji definiuje si w tej logice w nastpujcy sposób. Definicja 6: Interpretacja dla 4-wartociowej logiki Dunna-Belnapa jest funkcj v ze zbioru formul jzyka tej logiki w DM4. Funkcja ta rozszerza si na formuly zloone w standardowy sposób. Definicja 7: Trzy poniej zdefiniowane relacje konsekwencji 4-wartociowej logiki Dunna-Belnapa s równowane: · · · A <t B wtw, jeli t Î v(A), to t Î v(B). A <f B wtw, jeli f Î v(B), to f Î v(A). A <t,f B wtw, jeli zarazem A <t B i A <f B. W definicji 7 pierwsza równowano definiuje relacj konsekwencji jako zachowujc warto prawdy; w drugiej równowanoci relacja konsekwencji zachowuje falszywo; w trzecim przypadku ­ zachowuje obie wartoci. Te trzy relacje konsekwencji s ekstensjonalnie identyczne8. Informacja kognitywna wymaga uwzgldnienia epistemicznego stanu niepewnoci, w jakim znajduje si podmiot, który najczciej w swoim yciu ma do czynienia z informacj niekompletn i czsto te sprzeczn. Bdziemy modelowali niepewno przyporzdkowujc przekonaniom podmiotu ich stopnie, reprezentowane przez liczby rzeczywiste z przedzialu [0, 1], gdzie 0 reprezentuje absolutny brak pewnoci co do wystpienia danego zdarzenia (czyli pewno, e dane zdarzenie nie nastpi), a 1 reprezentuje absolutn pewno co do tego, e zdarzenie nastpi. Zakladamy, e przyporzdkowania te nie s calkowicie arbitralne, lecz uzasadnione s przez nasz informacj o moliwych wystpieniach zdarze. Informacja ta moe przesdza, jak bd rozloone nasze oszacowania co do stopnia przekonania w sprawie wystpienia danego zdarzenia, co do braku przekonania, jak równie co do niepewnoci w sprawie wystpienia tego samego zdarzenia. Dunn (2010) zwraca uwag na dwa rodzaje niepewnoci: zwizany z niewystarczajc informacj oraz zwizany z konfliktem informacji. W logice Dunna-Belnapa oba rodzaje informacji reprezentowane s odpowiednio przez dwie wartoci epistemiczne: N i B. Modelowanie niepewnoci wymaga zdefiniowania probabilistycznej funkcji interpretacji i probabilistycznej relacji konsekwencji. 8 Klasyczna relacja konsekwencji moe by równie zdefiniowana równowanie jako zachowujca prawdziwo, jako zachowujca falszywo i jako zachowujca obie wartoci. Definicja 8: Interpretacja probabilistyczna jest funkcj p ze zbioru formul jzyka rachunku zda w zbiór liczb rzeczywistych z domknitego przedzialu [0, 1], która spelnia aksjomaty Kolmogorowa nakladane na funkcj prawdopodobiestwa. Interpretacja probabilistyczna nie rozszerza si w sposób jednoznaczny na formuly zloone, jak ma to miejsce w przypadku funkcji interpretacji jzyka klasycznego rachunku zda, która jest jednoznacznym rozszerzeniem funkcji wartociowania zmiennych. W standardowej teorii prawdopodobiestwa mamy przyporzdkowania liczb z przedzialu [0, 1] zmiennym zdaniowym, które mog si rozszerza do funkcji p na wiele rónych sposobów spelniajcych aksjomaty Kolmogorowa definiujce skoczenie addytywn funkcj prawdopodobiestwa9. Definicja 9: Nieklasyczna probabilistyczna relacja konsekwencji definiowana jest w nastpujcy sposób (Dunn 2010): · · · A <b B wtw, gdy dla kadej funkcji v: v(A) £ v(B). A <d B wtw, gdy dla kadej funkcji v: v(B) £ v(A). A <b, d B wtw, gdy zarazem A <b B oraz A vb'(P) = 0,1. Pominiemy tu inne rodzaje reakcji na informacje konfliktowe i sprzeczne, o których mówi nauki kognitywne. Kognitywici zauwaaj, e nowa informacja konfliktowa jest najczciej przez stan informacyjny asymilowana i jednoczenie znieksztalcana. Nasz przyklad jest ilustracj takiej sytuacji, kiedy podmiot odpowiada na informacj konfliktow przez jej znieksztalcenie (w naszym przypadku dotyczce stopnia przekonania) w procesie asymilacji. Zdarza si jednak, e agent usuwa sprzeczno nie poprzez rewidowanie swego obecnego stanu informacyjnego. Na przyklad moe odklada na póniej zajmowanie si sprzecznoci lub konfliktowoci informacji lub przypisywa mniejsz wag, ni zwykle to robimy, do sprzecznoci lub konfliktowoci przekona11. 11 Szereg eksperymentalnie potwierdzonych sposobów reakcji na informacje konfliktowe i sprzeczne podaj Chi i Ohlsson (2005). Krystyna Misiuna 5. Modelowanie informacji kognitywnej wnioskowa indukcyjnych Modelowanie informacji sprzecznej wymuszalo odwolanie si do poj probabilistycznych. Podamy teraz definicje tych poj, z których korzystalimy przy analizie informacji konfliktowych i sprzecznych. Pojcia te wykorzystamy równie przy modelowaniu informacji kognitywnej, do jakiej prowadz rozumowania indukcyjne. Definicja 10: Przekonaniowy stan informacyjny jest funkcj interpretacji ze zbioru formul danego jzyka w domknity przedzial liczb rzeczywistych [0,1], tak, e przyporzdkowuje ona formulom reprezentujcym stwierdzenia nalece do stanu informacyjnego agenta trójk liczb rzeczywistych: vb, vd, vu z przedzialu [0,1], które reprezentuj odpowiednio stopie przekonania, stopie braku przekonania i stopie niepewnoci agenta oraz spelniaj warunek: vb + vd + vu = 1. Definicja 11: Informacja przekonaniowa jest caloci informacji, jak posiada agent, wyraan przez jego (lub jej) stopnie przekonania, stopnie braku przekonania i stopnie niepewnoci co do stwierdze nalecych do jego (jej) obecnego stanu informacyjnego. Przyklad 4: W szczególnym przypadku Y moe by nowym kognitywnym stanem informacyjnym X-a, który pozostaje w relacji BRCI do obecnego stanu informacyjnego X-a. Niech obecny kognitywny stan informacyjny X-a bdzie opisany przez nastpujce przyporzdkowanie liczb rzeczywistych z przedzialu [0,1] stwierdzeniu Q: ,,Wszystkie wróble s szare": vb(Q) = 0,9 vd(Q) = 0,01 vu(Q) = 0,09. Jeli teraz informacja E: ,,Ten wróbel, który wlanie siedzi na drzewie, jest szary" jest przekazana z nowego stanu kognitywnego X-a do stanu kognitywnego opisanego wyej, X jest zmuszony do przyjcia tej informacji, a nastpnie do uaktualnienia swego obecnego stanu informacyjnego dotyczcego koloru wróbli. Problematyczne jest to, jak podmiot kognitywny przeprowadza tak aktualizacj, jeli posiada on (ona) absolutn pewno co do tego, e informacja E jest prawdziwa, a wic gdy vb(E) = 1. Zalómy, e agent zawsze respektuje zasad niesprzecznoci przy aktualizacji swego obecnego kognitywnego stanu informacyjnego. Równie w tym przykladzie mog by róne dopuszczalne sposoby takiej aktualizacji. W wikszoci s one zalene od kontekstu, wlczajc takie czynniki, jak stopie jzykowej kompetencji podmiotu, posiadanie przez niego relewantnej informacji, jego (jej) pesymistyczne lub optymistyczne nastawienie oraz wplyw, jaki mog wywiera fakty z jego (jej) najwieszego dowiadczenia. Zalómy, e nowy stan kognitywny X-a opisany jest przez nastpujce przyporzdkowanie: vb'(Q) = 0,95, vd'(Q) = 0,01, vu'(Q) = 0,04. Zauwamy, e stopie niepewnoci X-a co do prawdziwoci stwierdzenia Q jest mniejszy w nowym stanie kognitywnym, chocia nowa funkcja v' jest rozszerzeniem funkcji v, a powikszenie stanu informacyjnego X-a ma charakter monotoniczny. Powtarzajc procedur uaktualniania probabilistycznego stanu informacyjnego w odniesieniu do Q wystarczajc ilo razy, moemy si spodziewa, e kognitywny stan informacyjny X-a przyjmie nastpujce wartoci: vb''(Q) = 1,00, vd''(Q) = 0,00, vu''(Q) = 0,00. Z reguly zdania ogólne takie jak Q s uwaane za wnioski wnioskowa dedukcyjnych. W naszym ujciu warto przyporzdkowana zdaniu Q jest wynikiem subiektywnego oszacowania ­ chocia obiektywne czynniki s brane pod uwag przy tego rodzaju oszacowaniach. Ujcie to w literaturze nosi nazw subiektywnego bayesianizmu, którego najbardziej przekonujcym obroc jest, moim zdaniem, Bruno de Finetti (2008). W jego teorii informacja zawsze narzuca ograniczenia na rozklad prawdopodobiestwa (lub stopni przekona). De Finetti slusznie jednak zauwaa, e informacja dotyczca czstoci jest z reguly skpa i w wielu przypadkach nie moe by pomocna w dokonaniu wlaciwych oszacowa w terminach prawdopodobiestwa. De Finetti twierdzi, e dokonywanie porówna midzy naszymi wlasnymi oszacowaniami prawdopodobiestw, jak równie porówna z oszacowaniami przeprowadzanymi przez innych, moe oddzialywa na nasze sdy dotyczce prawdopo- Krystyna Misiuna dobiestw w równym stopniu jak informacja innego rodzaju. M.C. Galavotti pisze: Praca De Finettiego jest pod tym wzgldem w zgodzie ze stanowiskiem szeroko rozprzestrzenionym zwlaszcza wród bayesowskich statystyków, które znalazlo wyraz w rozleglej literaturze na temat ,,dobrego kalibru" metod oszacowywania prawdopodobiestw (Galavotti 2011: 195). Przyklad 4 zasluguje z wielu powodów na gruntowniejsz analiz. Spróbujmy potraktowa go jako ilustracj tzw. wnioskowania indukcyjnego, którego przeslanka jest modelowana jako skoczony cig stwierdze opisujcych dane empiryczne, natomiast konkluzja jest skoczonym cigiem stopni przekona: (A) E1, E2, E3, ......................, En; n Î N ­ {0} (B) pb,1(Q), pb,2(Q),.................pb,n(Q); pb,n(Q) » 1. Cig stwierdze empirycznych wraz z cigiem oszacowa B prowadz do wniosku Q, którego warto jest bliska prawdy. Problem dotyczy skonstruowania adekwatnego modelu takiego rozumowania, gdy kade stwierdzenie w cigu A posiada stopie przekonania równy 1, natomiast stopnie przekona s rosncym cigiem liczb rzeczywistych z przedzialu [0,1]. Moemy spojrze na cig A jako na skoczony cig niezalenych zdarze i oszacowa prawdopodobiestwo tego cigu jako iloczyn prawdopodobiestw kolejnych zdarze. Gdyby wartoci tych prawdopodobiestw byly wiksze od 0, a mniejsze od 1, wtedy moglibymy oczekiwa, e wielko ich iloczynu jest te wiksza od 0 i mniejsza od 1. Przy zaloeniu, e warto konkluzji Q jest prawie równa 1, moglibymy wnosi, e spelniona jest nierówno: pb(A) £ pb(Q), dla dowolnego oszacowania spelniajcego warunki nakladane na funkcj prawdopodobiestwa przez definicj 9. Tym samym moglibymy wnosi, e zachodzi relacja konsekwencji midzy przeslankami A i wnioskiem Q zgodnie z definicj 9. Okazuje si jednak, e sprawa nie jest tak prosta, na jak z pozoru wyglda, poniewa standardowa teoria prawdopodobiestwa, jaka kryje si za definicj funkcji prawdopodobiestwa oraz stopniami przekona, nastrcza wielu trudnoci natury pojciowej. Standardowa teoria prawdopodobiestwa, której podstawy stworzyl Kolmogorow w znanej pracy z roku 1933, odwoluje si do tzw. zasady regularnoci (RC), która mówi, e rozklad prawdopodobiestwa nad zbiorem zdarze jest regularny wtedy, gdy przyporzdkowuje prawdopodobiestwo 0 zbiorowi pustemu, a prawdopodobiestwo 1 zbiorowi wszystkich moliwych zdarze. Zasada RC jest równowana zasadzie, e kade moliwe zdarzenie ma prawdopodobiestwo wiksze od 0, jeli zamiast moliwych zdarze wemiemy pod uwag ich zbiory jednostkowe. Jeszcze inne sformulowanie powyszej zasady, równowane jej sformulowaniom wczeniejszym, jest nastpujce: funkcja prawdopodobiestwa jest regularna wtedy, gdy przypisuje prawdopodobiestwo 1 tylko prawdom logicznym, natomiast prawdopodobiestwo 0 tylko sprzecznociom. Wiadomo, e RC prowadzi do paradoksów, gdy zbiór moliwych zdarze jest nieskoczony lub nieprzeliczalny12. Jako jeden z pierwszych, K. Popper (1935), nie podzielajc pogldu Carnapa, e wszystkie funkcje prawdopodobiestwa s regularne, argumentowal, e wielu sdom ogólnym mówicym o nieskoczonej liczbie przedmiotów powinno by przyporzdkowane prawdopodobiestwo równe 0. W naszym przykladzie kady element cigu A ma warto 1 w przekonaniowym stanie informacyjnym ­ w przeciwiestwie do tego, co mówi nam zasada RC. Standardowa teoria prawdopodobiestwa mówi nam, e prawdopodobiestwo cigu zdarze, którym przysluguj dwie wlasnoci, jak w przypadku cigu rzutuów monet, gdzie w kadym rzucie moemy otrzyma tylko jedn z dwu moliwoci: orla lub reszk, dla kadej liczby naturalnej n wynosi 1/2n (2-n). W konsekwencji zatem prawdopodobiestwo cigu empirycznych wiadectw bdzie posiadalo coraz mniejsze prawdopodobiestwo, gdy liczba wiadectw bdzie coraz wiksza. Tak wic stopie potwierdzenia wniosku przez stwierdzenia empiryczne nie moe by utosamiany z prawdopodobiestwem wniosku ze wzgldu na prawdopodobiestwa cigu tych stwierdze pelnicych funkcj przeslanek13. Problem ten wymaga gruntowniejszej analizy metody uaktualniania stosowanej przez podmioty kognitywne przy przejciu z jednego przekonaniowego stanu informacyjnego do innego. Zakladamy, e istnieje pewien pocztkowy przekonaniowy stan informacyjny, w którym warto Q jest najmniejsza. Nazwijmy t warto najmniejszym pocztkowym przekonaniem14. Powstaje pytanie, jaka regula inferencji czyni moliwym przejcie od cigu empirycznych przeslanek A do wniosku Q, którego warto przekonaniow okrela ostatni element cigu B. Wemy pod uwag analiz prawdopodobiestwa warunkowego w pracy Kolmogorowa (1933). Zgodnie z podan tam równoci moemy modelowa rozumowanie podmiotu kognitywnego jako prawdopodobiestwo warunkowe wniosku Q przy danych przeslankach A, jeli wczeniejszy stopie przekonania jest P: Zob. w tej sprawie Popper 1935 i 2005, Hájek 2003 oraz Williamson 2007. Por. Popper 2005: 408. 14 Najmniejsze pocztkowe prawdopodobiestwo nie musi by utosamiane z prawdopodobiestwem a priori w teorii Bayesa. Krystyna Misiuna (CN) P'(Q (A)) = P(Q (A))/P(A) = P(Q) × P(A)/P(A) = P(Q) P(A) > 0. Równo CN pokazuje, e prawdopodobiestwo warunkowe zdefiniowane standardowo jest w naszym przypadku bezuyteczne, gdy sprowadza si do prawdopodobiestwa wniosku Q, którego warto jest niezalena od prawdopodobiestwa przeslanek. Inna moliwo, jaka si w sposób naturalny narzuca, to wykorzystanie reguly Bayesa w charakterze reguly inferencji. Mona pokaza, e regula ta jest konsekwencj aksjomatyki prawdopodobiestwa podanej przez Kolmogorowa przy jego analizie prawdopodobiestwa warunkowego. Regula Bayesa mówi, e jeli dany jest cig zda obserwacyjnych A i cig hipotez B, to moemy obliczy prawdopodobiestwo warunkowe hipotezy, która w najwikszym stopniu wyjania te dane, zgodnie z nastpujc równoci: (BR) P'(Q (A)) = P((A) Q) × P(Q)/P(A) P(A) > 0. Jeli prawdopodobiestwo interpretujemy jako stopie przekonania, wtedy P(A) = 1, a w konsekwencji dostajemy ten sam wynik, którego chcielimy unikn poprzednio: P'(Q (A)) = P(Q). Równie i w tym przypadku nie jestemy w stanie uchwyci zwizku zachodzcego midzy cigiem przeslanek a wnioskiem. Wniosek, do jakiego prowadz te analizy, jest taki, e funkcja prawdopodobiestwa, interpretowana jako stopie przekonania, nie moe by adekwatnym modelem zwizku, jaki zachodzi midzy skoczonym cigiem obserwacyjnych przeslanek A a konkluzj Q. W tej sytuacji najlepszym rozwizaniem naszego problemu jest wprowadzenie pojcia kognitywnego prawdopodobiestwa potwierdzania wniosku Q przez cig obserwacji A jako pojcia pierwotnego. Bdziemy oznaczali to prawdopodobiestwo symbolem Pc z jego dwoma argumentami oddzielonymi przecinkiem: (CSP) P(Q) =df Pc(Q, (A)). CSP jest stopniem potwierdzenia wniosku Q przez koniunkcj przeslanek A. Warto kognitywnego prawdopodobiestwa potwierdzenia jest w naszym przykladzie bliska 1. Zauwamy, e Q nie wynika logicznie z koniunkcji przeslanek A. Inaczej mówic, otrzymalimy w CSP przekonaniowy stan informacyjny Pc, bardziej realistyczny ni stan informacyjny reprezentowany przez funkcj prawdopodobiestwa pb, interpretowan jako stopie przekonania podmiotu X. Tym samym definicja probabilistycznej relacji konsekwencji w nieklasycznej logice probabilistycznej w zastosowaniu do przykladów tego typu co przyklad 4 moe dawa inne wartoci ni prawdopodobiestwo Pc. Kogni- tywne prawdopodobiestwo potwierdzania powinno zatem zastpi w uzasadnionych przypadkach zarówno standardowe prawdopodobiestwo warunkowe, jak te regul Bayesa oraz funkcj prawdopodobiestwa interpretowan jako stopie przekonania, przy modelowaniu informacji kognitywnej. Nasza analiza pokazuje zarazem, e adna z relacji konsekwencji zdefiniowanych w definicji 9 nie zachodzi, gdy wnioskiem jest generalizacja, a przeslankami s zdania szczególowe podpadajce pod tak generalizacj. W wietle naszej analizy midzy tego rodzaju wnioskiem a tak sformulowanymi przeslankami zachodzi relacja, któr nazwalibymy relacj potwierdzania wniosku przez przeslanki, która reprezentowana jest przez dwuargumentow funkcj kognitywnego prawdopodobiestwa potwierdzania. Natomiast standardowa teoria prawdopodobiestwa nie reprezentuje adekwatnie relacji potwierdzania. Zgodnie z warunkiem maksymalnoci, przyjtym w stosunku do relacji bazowej BRCI, podmiot rozpoznaje informacj kognitywn, gdy jej tre jest nowa w stosunku do jego (jej) obecnego stanu informacyjnego lub jest zawarta implicite w obecnym stanie informacyjnym podmiotu, jak ma to miejsce w przypadku informacji, jakiej dostarczaj wnioskowania dedukcyjne. To samo zachodzi równie w przypadku informacji, jakiej dostarczaj wnioskowania indukcyjne, których przyklad analizowalimy wyej. Jednak informacja kognitywna, przekazywana generalizacji na podstawie danych empirycznych, jest tylko czciowo zawarta w obecnym stanie informacyjnym podmiotu. Nawizujc do idei Poppera (1935), który uwaal, e moemy sformulowa teori prawdopodobiestwa opierajc si na pierwotnym pojciu prawdopodobiestwa, Hájek (2003) argumentuje, e przyjcie warunków nakladanych na prawdopodobiestwo przez Kolmogorowa (1933), jak warunek przeliczalnej addytywnoci i warunek regularnoci, prowadzi do nieintuicyjnych przykladów. Oto niektóre z takich przykladów, wymuszajce zastpienie standardowego prawdopodobiestwa warunkowego prawdopodobiestwem warunkowym rozumianym jako pojcie pierwotne, które zgodnie z przyjtym przez nas oznaczeniem bdziemy symbolizowali jako Pc. Pc (w nieskoczonej serii rzutów monet wypada orzel, w nieskoczonej serii rzutów monet wypada orzel) = 1. Natomiast przy standardowej analizie prawdopodobiestwa warunkowego CN otrzymalibymy niezdeterminowane prawdopodobiestwo warunkowe tylko dlatego, e prawdopodobiestwo stwierdzenia ,,W nieskoczonej serii rzutów monet wypada orzel" = 0. Zerowe prawdopodobiestwo powyszego zdania jest wynikiem tego, e przy nieskoczenie dlugiej serii rzutów n, warto 1/2n zmierza do zera. Nieintuicyjno tego oszacowania wynika std, e mamy poczucie niezgodnoci midzy naszym pojciem moliwoci, które Krystyna Misiuna kwalifikuje jako logicznie moliwy stan rzeczy to, e w nieskoczonej serii rzutów wypada orzel, a standardow teori prawdopodobiestwa. Niewtpliwie niezgodno ta wplynie na ograniczone zastosowanie teorii prawdopodobiestwa w teorii informacji kognitywnej. Inne nieintuicyjne przypadki, wymuszajce ograniczone zastosowanie standardowej teorii prawdopodobiestwa, to midzy innymi: · Pc (M, M) = 1 jeli ,,M" jest zdaniem logicznie moliwym. Przy standardowej analizie prawdopodobiestwa warunkowego CN otrzymalibymy w takim wypadku niezdeterminowan warto prawdopodobiestwa warunkowego. Pc (T, M) = 1, jeli ,,T" jest stwierdzeniem koniecznym. Przy standardowej analizie otrzymalibymy niezdeterminowan warto prawdopodobiestwa warunkowego. Pc (F, M) = 0, jeli ,,F" jest zdaniem koniecznie falszywym. Przy standardowej analizie otrzymalibymy niezdeterminowane prawdopodobiestwo warunkowe. Powrómy do warunku praktycznej obliczalnoci, którego spelnienia oczekujemy od BRCI. Z reguly problem praktycznej obliczalnoci jest rozwizywany przez poszukiwanie podzbioru wlaciwego w logice 1-go rzdu, która jako calo nie jest praktycznie obliczalna. Jeden z ostatnich wanych wyników dotyczcych interesujcego nas tu problemu praktycznej obliczalnoci jest zaslug dwóch badaczy zajmujcych si teori zloonoci, P. Domingosa i W.A. Webba (2012), którzy definiuj praktycznie obliczaln logik probabilistyczn 1-go rzdu. Rozwaaj oni podzbiór probabilistycznej logiki Markowa i pokazuj, e relacja konsekwencji takiej logiki jest praktycznie obliczalna. Z naszego punktu widzenia wane jest, e na wejciu algorytm w systemie dowodowym tej logiki ma probabilistyczn baz informacji K oraz formul q, reprezentujc nasz problem, natomiast na wyjciu otrzymujemy standardowe prawdopodobiestwo warunkowe postaci: p(q K) = Z(K È { (q, 0) })/ Z(K), gdzie Z(K) jest funkcj podzialu logicznego zbioru K, a Z(K È {(q, 0)}) jest funkcj podzialu logicznego zbioru K wraz z formul q reprezentujc nasz problem. Jest to wynik, który umoliwia wykorzystanie go w teorii informacji kognitywnej. Zastosowany do naszego przykladu, wynik ten dawalby równo postaci: Pc(q, (A)) = Z((A) È { (q, 0) })/ Z(A). Domingos i Webb (2012) dowodz, e tego rodzaju problemy maj wielomianow zloono czasow. 6. Modelowanie informacji autoepistemicznej Informacja kognitywna, jak podmiot otrzymuje dziki relacji bazowej BRCI, nie sprowadza si jedynie do informacji pochodzcej z otoczenia oraz do informacji uzyskanej przez rozumowania dedukcyjne i niededukcyjne. Obok tych kluczowych rodzajów informacji kognitywnej istnieje równie inny rodzaj informacji kognitywnej charakterystyczny dla istot wiadomych. Jest to informacja, której ródlem jest wiadomo podmiotu dotyczca jego (jej) informacji kognitywnej. Podamy najwaniejsze, naszym zdaniem, prawa, jakie obowizuj w stosunku do informacji kognitywnej. Sformulujemy je w metajzyku w stosunku do jzyka przedmiotowego teorii informacji kognitywnej, w którym operator ,,jest poinformowany, e" bdzie symbolizowany przez I. (1) (2) (3) (4) (5) IA I(A B) IB. I(A A). IA I(A (B B)). IA I A IB. IA I IA. Prawo 1 mówi, e informacja kognitywna nie jest domknita na implikacj materialn logiki klasycznej. Drugie prawo mówi, e istniej prawdy logiczne, o których podmiot moe by poinformowany, co jest wyrazem przekonania, e podmiot kognitywny nie posiada logicznej wszechwiedzy. Prawo 3 stwierdza, e istniej pary stwierdze logicznie równowanych takie, przy których podmiot moe by poinformowany tylko o jednym stwierdzeniu w parze. Prawo 4 mówi, e informacja kognitywna podmiotu moe by konfliktowa lub sprzeczna, co nie prowadzi do tego, e do stanu informacyjnego takiego podmiotu naley dowolne stwierdzenie. Prawo 5 natomiast wyraa pozytywn introspekcj15. Zalómy, e jzyk teorii informacji kognitywnej ograniczymy do jzyka logiki zda wraz z dodatkowym operatorem I. Jeli obecny stan kognitywny podmiotu ograniczymy do koniunkcji: j1 j2 j3 ... jn, to moemy postawi naturalne pytanie, jak podmiot moe rozstrzygn, czy jest on poinformowany, e y, gdzie y jest nowym stwierdzeniem w stosunku do obecne15 Argumentacj przeciwko prawu negatywnej introspekcji w odniesieniu do informacji rozumianej kognitywnie przedstawilam w pracy Misiuna 2012. Krystyna Misiuna go stanu informacyjnego. Nieco innym ujciem tego samego problemu jest pytanie, czy istnieje algorytm o wielomianowej zloonoci czasowej, który rozstrzyga, czy prawdziwe jest w naszej teorii zdanie: (T) I(j1 j2 j3 ... jn) Iy. Analogiczny problem byl badany przez Liu, Lakemeyera i Levesque'a (2004) dla zdania T, w którym miejsce operatora I zajmuje operator przekonania B. Autorzy dowodz, e w przypadku klasycznego rachunku zda, okrelenie prawdziwoci T moliwe jest w czasie: O((m n)k + 1). Mamy tu do czynienia ze standardow notacj, gdzie m jest dlugoci formuly y, a n dlugoci koniunkcji w formule T. Oszacowanie to mówi, e istnieje algorytm o wielomianowej zloonoci czasowej, który rozstrzyga T, inaczej mówic, algorytm, którego czas jest ograniczony z góry przez wyraenie wielomianowe. Wynik ten w zastosowaniu do teorii informacji kognitywnej mówi o praktycznej obliczalnoci relacji BRCI wystpujcej w kontekstach autoepistemicznych dla nieduych wielkoci stalej k. 7. Konkluzje Przedstawilimy zarys teorii informacji kognitywnej ze szczególnym zwróceniem uwagi na jej praktyczn obliczalno. Wniosek, do jakiego prowadz nasze analizy, jest taki, e praktycznie obliczalna i intuicyjnie adekwatna teoria informacji kognitywnej jest moliwa. Ten wynik ogólny jest podstaw do sformulowania nastpujcej definicji informacji kognitywnej. Przez informacj kognitywn rozumiemy zjawisko, na które skladaj si trzy rodzaje danych: (1) informacja zwizana ze znaczeniem operatorów logicznych, jak dostajemy na drodze rozumowa dedukcyjnych; (2) informacja przekonaniowa, bdca miar naszego stopnia przekonania co do stwierdze empirycznych, oraz informacja przekonaniowa wyraajca si w prawdopodobiestwie potwierdzania uogólnie empirycznych, bdcych wnioskami we wnioskowaniach indukcyjnych; (3) autoepistemiczna informacja kognitywna, bdca informacj o naszej informacji. Wskazalimy w naszych analizach równie na niektóre ograniczenia zwizane z zastosowaniem standardowej teorii prawdopodobiestwa do teorii informacji kognitywnej. Bibliografia Bar-Hillel Y., Carnap R. (1952), An Outline of a Theory of Semantic Information, w: Y. Bar-Hillel (red.), Language and Information: Selected Essays on Their Theory and Application, Reading, Mass.: Addison-Wesley, s. 221­247. Chi M.T.H., Ohlsson S. (2005), Complex Declarative Learning, w: The Cambridge Handbook of Thinking and Reasoning, Cambridge: CUP. D'Agostino M., Floridi L. (2009), The Enduring Scandal of Deduction. Is Propositional Logic Really Uninformative?, ,,Synthese" 167, s. 271­315. De Finetti B. (2008), Philosophical Lectures on Probability, Dordrecht: Springer. Domingos P., Webb W.A. (2012), A Tractable First-Order Probabilistic Logic, ,,Proceedings of the 26 AAAI Conference on AI", Toronto, Canada: AAAI Press. Dunn J.M. (2010), Contradictory Information: Too Much of a Good Thing, ,,Journal of Philosophical Logic" 39, s. 425­452. Galavotti M.C. (2011), The Modern Epistemic Interpretation of Probability: Logicism and Subjectivism, w: D.M. Gabbay, S. Hartmann, J. Woods (red.) Handbook of the History of Logic, Vol. 10: Inductive Logic, Amsterdam: Elsevier, 153­203. Gao S. (2008), A Quantum Theory of Consciousness, ,,Minds and Machines" 18, s. 39­52. Hájek A. (2003), What Conditional Probability Could Not Be?, ,,Synthese" 137, s. 273­323. Hintikka J. (1970), Surface Information and Depth Information, w: J. Hintikka, P. Suppes (red.), Information and Inference, Dordrecht: Reidel, s. 263­297. Hintikka J. (1973), Logic, Language-Games and Information, Oxford: Clarendon Press. Josang A. (2001), A Logic for Uncertain Probabilities, ,,International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems" 9, s. 279­311. Kolmogorow A.N. (1933), Grundbegriffe der Wahrscheinlichkeitrechnung, ,,Ergebnisse der Mathematic". Krystyna Misiuna Landauer T.K. (1986), How Much Do People Remember? Some Estimates of the Quantity of Learned Information in Long-term Memory, ,,Cognitive Science" 10, s. 477­493. Liu Y., Lekemeyer G., Levesque H. (2004), A Logic of Limited Belief for Reasoning with Disjunctive Information, ,,Proceedings of the KR-2004 Conference", Whistler. Misiuna K. (2012), A Modal Logic of Information, ,,Logic and Logical Philosophy" 21, s. 33­51. Popper K.R. (1935), Logik der Forschung, Tübingen: Mohr. Popper K.R. (2005), The Logic of Scientific Discovery, Tylor and Francis e-Library. Shafer G. (1976), A Mathematical Theory of Evidence, Princeton: Princeton University Press. Williamson T. (2007), How Probable Is an Infinite Sequence of Heads?, ,,Analysis" 67, s. 173­180. Streszczenie Celem artykulu jest zarys teorii informacji kognitywnej. Jednym z waniejszych warunków, jakie nakladamy na pojcia informacji kognitywnej, jest jej praktyczna obliczalno, która przysluguje czasowej zloonoci obliczeniowej nie wikszej ni zloono wielomianowa. Okazuje si, e informacja kognitywna, jak uzyskujemy z wnioskowa dedukcyjnych, moe by informacj o wielomianowej zloonoci czasowej, jeli system dedukcyjny posiada odpowiednio dobrane reguly inferencji. Modelowanie informacji, której ródlem s wnioskowania dedukcyjne, jest jednym z trzech podstawowych zada, jakie stawiam sobie w tym artykule ­ obok modelowania informacji sprzecznej i modelowania informacji przekonaniowej, której ródlem s wnioskowania niededukcyjne oraz treci sdów dowiadczalnych. Modelowanie informacji kognitywnej pochodzcej z wnioskowa probabilistycznych odsyla do pojcia prawdopodobiestwa. Klasyczna teoria prawdopodobiestwa nie moe jednak by wykorzystana do tego celu bez zastrzee. Argumentuj na rzecz wprowadzenia jako pojcia pierwotnego kognitywnego prawdopodobiestwa warunkowego. Formuluj równie postulaty autoepistemicznej informacji kognitywnej, podkrelajc jej praktyczn obliczalno oraz praktyczn obliczalno informacji kognitywnej pochodzcej z wnioskowa probabilistycznych. http://www.deepdyve.com/assets/images/DeepDyve-Logo-lg.png Przeglad Filozoficzny - Nowa Seria de Gruyter

Informacja kognitywna jako obszar badawczy kognitywistyki

Przeglad Filozoficzny - Nowa Seria , Volume 22 (2) – Jun 1, 2013

Loading next page...
 
/lp/de-gruyter/informacja-kognitywna-jako-obszar-badawczy-kognitywistyki-1JwMF0yZ9P

References

References for this paper are not available at this time. We will be adding them shortly, thank you for your patience.

Publisher
de Gruyter
Copyright
Copyright © 2013 by the
eISSN
1230-1493
DOI
10.2478/pfns-2013-0041
Publisher site
See Article on Publisher Site

Abstract

Przegld Filozoficzny ­ Nowa Seria R. 22: 2013, Nr 2 (86), ISSN 1230­1493 DOI: 10.2478/pfns-2013-0041 Krystyna Misiuna Slowa kluczowe: informacja, kognitywistyka, praktyczna obliczalno, informacja powierzchniowa, informacja przekonaniowa, prawdopodobiestwo warunkowe, wnioskowania dedukcyjne, wnioskowania niededukcyjne, informacja sprzeczna 1. Wstp W roku 2009 powstalo na uniwersytecie Tsinghua wiatowe Centrum Oblicze Neuronalnych i Kognitywnych (Center for Neural and Cognitive Computation), które wród swoich licznych obszarów badawczych wymienia przede wszystkim informatyk (computer science), nauk o informacji (information science) i kognitywistyk (cognitive science). Centrum okrela swój glówny kierunek poszukiwa jako badanie wewntrznego przetwarzania informacji, natomiast now dyscyplin badawcz, która swoje powstanie zawdzicza takim badaniom, nazywa cognitive informatics (informatyka kognitywna). Problematyka zwizana z informacj kognitywn, któr podejmuj w tym artykule, mieci si w zakresie tak rozumianej kognitywnej informatyki. Oto kilka faktów empirycznych uzasadniajcych potrzeb podjcia bada w tym obszarze empirycznej rzeczywistoci, do którego naley informacja kognitywna. Wedlug wspólczesnych oszacowa ilo informacji zebranej w cigu calego swego ycia, jak przechowuje w swojej pamici osoba w wieku 70 lat, wynosi 2 × 109 bitów1. Przyjmuje si, e zakodowanie najprostszej deklaratywnej informacji wymaga okolo 1000 bitów. Zatem okolo dwóch milionów Zob. Landauer 1986. Krystyna Misiuna deklaratywnych informacji zdobywamy w cigu calego ycia2. Takie s empiryczne fakty, które odsylaj do pojcia informacji kognitywnej. Spraw otwart jest natomiast to, jakie mechanizmy kognitywne rzdz procesem zdobywania i przetwarzania takiej informacji. Z punktu widzenia neuronauki problem zdobywania informacji opisywany jest przez liczb neuronów, jaka w ludzkim mózgu tworzy wiadom percepcj3. Liczb t szacuje si w przyblieniu na 104. Naszym celem jest modelowanie informacji kognitywnej, a w szczególnoci deklaratywnej informacji kognitywnej, któr tworzy zbiór stwierdze niekonieczne prawdziwych, lecz takich, co do których podmiot jest przekonany, e s prawdziwe. Informacja deklaratywna odróniana jest od informacji proceduralnej, która mówi o tym, jak co zrobi, jak wykona jakie zadanie ­ okrela si j potocznie zwrotem know-how. 2. Co to jest informacja kognitywna? Zalómy wstpnie, e znaczenie terminu ,,informacja kognitywna" jest bliskie znaczeniu dwuargumentowego predykatu: X jest poinformowany przez Y, gdzie X jest nazw racjonalnego podmiotu o ograniczonych zasobach pamici i czasu. Relacj denotowan przez dwuargumentowy predykat ,,jest poinformowany przez" nazwijmy bazow relacj informacji kognitywnej (BRCI). Relacja ta moe by uwaana za reprezentacj kognitywnego kanalu informacyjnego pomidzy podmiotem X a Y. To, co jest nazywane przez Y, zaley od teorii informacji kognitywnej, a w szczególnoci od przyjmowanego przez ni poziomu abstrakcji. Zalómy wstpnie, e jest to jaki inny racjonalny podmiot. Warunkiem koniecznym zachodzenia bazowej relacji BRCI jest to, e podmiot X rozpoznaje informacj przekazywan przez Y-a jako now w stosunku do swego obecnego stanu informacyjnego. Ponadto, zachodzenie relacji bazowej BRCI midzy X-em i Y-iem implikuje, e: X jest poinformowany, e A, gdzie A jest stwierdzeniem zawierajcym now informacj w stosunku do obecnego stanu informacyjnego X-a. Zalómy, e relacja BRCI jest kognitywnym Zob. Chi, Ohlsson 2005: 372. Por. Gao 2008: 48. kanalem informacji deklaratywnej. Poniewa informacja zawarta w stwierdzeniu A jest nowa, wic tym samym powoduje ona zmian obecnego stanu informacyjnego w nowy stan informacyjny podmiotu X. Bdziemy zakladali, e kada nowa informacja powiksza obecny stan informacyjny podmiotu ze stanu obecnego v do nowego stanu informacyjnego v'. Ogólnie mówic, istniej dwa róne sposoby prowadzce do nowego stanu informacyjnego. Monotoniczny sposób poszerzania stanu informacyjnego polega na tym, e informacja aktualnie obecna nie jest odrzucana, natomiast do obecnego stanu informacyjnego jest dodawana informacja nowa. Tym samym przejcie od obecnego stanu informacyjnego do nowego stanu informacyjnego jest monotoniczne. Mówic nieco bardziej formalnie, warunek monotonicznoci procesu zmiany obecnego stanu informacyjnego v w nowy stan informacyjny v' moe by wyraony w nastpujcy sposób: dla kadego B: jeli v zawiera informacj, e B, i jeli informacja w stanie v jest zawarta w informacji w stanie v', to stan informacyjny v' zawiera równie informacj, e B. Dopuszczamy równie inny sposób poszerzenia obecnego stanu informacyjnego, a mianowicie taki, gdzie nowa informacja jest rezultatem zmiany niemonotonicznej. Jest tak wtedy, gdy warunek monotonicznoci, sformulowany wyej, nie zachodzi. Zobaczymy poniej, e zmiana stanu informacyjnego zawierajcego informacj sprzeczn moe by modelowana bez zakladania warunku monotonicznoci. Dopuszczamy równie niemonotoniczne zmiany stanu informacyjnego, które nie s wynikiem informacji sprzecznej. Na przyklad zdarza si, e uczeni zastpuj nawet najbardziej fundamentalne teorie nowymi teoriami w wietle nowych faktów. Tak wic dopuszczamy, e relacja BRCI zachodzi midzy obecnym stanem informacyjnym podmiotu X a jego nowym stanem informacyjnym, bdcym wynikiem monotonicznej, jak równie niemonotonicznej zmiany. Zakladamy ponadto, e relacja BRCI spelnia nastpujce warunki: Warunek maksymalny: Relacja bazowa BRCI powinna by praktycznie obliczalna. Warunek minimalny: Relacja bazowa BRCI powinna by efektywna. Warunek maksymalny implikuje, e jeli informacja pochodzca od Y-a jest zawarta explicite w obecnym stanie informacyjnym X-a, wtedy bazowa relacja bycia poinformowanym nie zachodzi midzy X-em a Y-iem, chocia relacja bazowa zachodzi, gdy informacja pochodzca od Y-a jest zawarta implicite w obecnym stanie informacyjnym Y-a. Warunek minimalny postulowany byl ju przez Hintikk (1973: 228). Zwracal on uwag, e powinnimy wiedzie, ile posiadamy informacji, a tym samym powinnimy wiedzie, o czym zostalimy Krystyna Misiuna poinformowani. Takie przekonanie zaklada, e nasza miara informacji powinna by efektywna. Zdefiniowana przez Hintikk (1970) informacja powierzchniowa (surface information) jest efektywnie obliczalna. Jednak w teorii Hintikki wnioskowania dedukcyjne przeprowadzane w rachunku zda i jednoargumentowym rachunku predykatów 1-go rzdu, które s efektywnie rozstrzygalne, nie dostarczaj informacji, tak jak przekonywali nas o tym neopozytywici, na przyklad Carnap i Bar-Hillel (1952). Obecnie wiemy, e chocia rachunek zda jest efektywnie rozstrzygalny, jest jednak obliczeniowo trudny. Znane dotychczas algorytmiczne procedury rozstrzygania dla rachunku zda maj wykladnicz zloono czasow, gdzie liczba kroków obliczeniowych zaley wykladniczo od iloci zmiennych wystpujcych w formule, a wic s to algorytmy nalece do klasy EXPTIME, której zloono czasow okrelamy wzorem: 2W(n), gdzie W(n) jest symbolem wielomianu od n. Latwo przekona si, e algorytmy nalece do klasy EXPTIME nie s praktycznie obliczalne, gdy rozwaymy program, który wykonuje 2n operacji, zanim si zatrzyma. Dla n = 100, przy zaloeniu, e komputer wykonuje 1012 operacji na sekund, program wymagalby czasu astronomicznego: 4 × 1010 lat! Posiadamy obecnie dowód tego, e problem spelnialnoci dla rachunku zda jest problemem NP-zupelnym4. Problem konsekwencji logicznej: formula q jest konsekwencj logiczn formuly p mona równowanie wyrazi jako problem bdcy negacj spelnialnoci formuly: p q. Z tego wnosimy, e problem konsekwencji logicznej jest problemem nalecym do klasy problemów coNP-zupelnych5. Przyjmujc ogólnie akceptowalne zaloenie, e klasy problemów P i NP nie s identyczne, stwierdzenie NP-zupelnoci, czy te coNP-zupelnoci, jest zarazem stwierdzeniem, e nie istnieje szybki, o wielomianowej zloonoci czasowej, algorytm, który rozstrzyga dany problem. Tym samym dla kadego algorytmu spelnialnoci formul rachunku zda oraz konsekwencji logicznej rachunku zda istniej takie 4 NP jest klas problemów, które mog by rozstrzygnite przy pomocy niedeterministycznej maszyny Turinga w czasie wielomianowym. Dany problem jest NP-zupelny jeli kady problem w tej klasie jest wielomianowo redukowalny do danego problemu. 5 Do klasy coNP nale te problemy, których dopelnienie naley do klasy NP. formuly, które wymagaj ponadwielomianowej zloonoci czasowej, co czyni te problemy praktycznie nieobliczalnymi. Kady problem obliczeniowy, który rozstrzygany jest przez algorytm w czasie wielomianowym, uwaa si za praktycznie obliczalny, natomiast inne problemy, chocia zasadniczo rozstrzygalne algorytmicznie, wymagaj algorytmów, których zloono czasowa jest ponadwielomianowa, i uwaane s za praktycznie nieobliczalne. Zatem warunek efektywnoci, którego spelnienia wymaga Hintikka od miary informacji, nie jest wystarczajcy dla celów praktycznych, poniewa nasza miara informacji, chocia efektywna, moe nie by praktycznie obliczalna. Algorytmiczna rozstrzygalno rachunku zda i jednoargumentowego rachunku predykatów nie musi oznacza, e relacja konsekwencji logicznej tych rachunków nie jest informujca. To, czy tak jest, czy nie, moe zalee od konkretnego systemu dedukcyjnego tych rachunków; niektóre systemy s zbyt zloone, aby uzyskanie wgldu w ich informacyjno bylo moliwe. 3. Modelowanie informacji pochodzcej z wnioskowa dedukcyjnych Powierzchniowej informacji kognitywnej nie utosamiamy z informacj powierzchniow zdefiniowan przez Hintikk. Ogólnie akceptowana opinia jest obecnie taka, e Hintikka nie zdolal przekonujco odeprze pogldu, zgodnie z którym nie istnieje aden obiektywny sens, w jakim wniosek poprawnego formalnie wnioskowania zawiera wicej informacji ni jego przeslanki. To wlanie informacja powierzchniowa miala, zdaniem Hintikki, dawa nam miar informatywnoci wnioskowa dedukcyjnych. Zdefiniujemy powierzchniow informacj kognitywn tak, aby oba warunki, jakie nakladamy na bazow relacj BRCI byly spelnione. Pojcie zblione do naszego pojcia powierzchniowej informacji kognitywnej spotykamy w artykule D'Agostina i Floridiego (2009), gdzie przyjmuje si, e dedukcyjne wnioskowania dostarczaj informacji, która nie jest zawarta w przeslankach, a co najwaniejsze, rozpoznajemy t informacj w sposób praktycznie obliczalny. Autorzy wspomnianego artykulu konstruuj system logiki zda oparty na szczególnych regulach inferencji, majcych charakter regul wprowadzania i eliminowania. Posiada on t wlasno, e to, czy formula P jest wyprowadzana w tym systemie ze skoczonego zbioru formul P, moe by rozstrzygnite w czasie wielomianowym. Wan rónic midzy tym systemem, który w dalszym cigu bdziemy oznaczali symbolem W-E, a innymi systemami dedukcyjnymi korzystajcymi z regul wprowadzania i eliminowania, jest to, e stale logiczne definiowane przez reguly inferencji systemu W-E nie odwoluj si do ,,wirtualnych" stanów informacyjnych. S to takie stany informacyjne, które zawieraj informacj, której nie ma w obecnym Krystyna Misiuna stanie informacyjnym. Reguly systemu W-E definiowane s w taki sposób, który odwoluje si wylcznie do obecnego stanu informacyjnego. Natomiast standardowe reguly wprowadzania i eliminowania ukrywaj informacyjno relacji konsekwencji klasycznego rachunku zda. Ilustracj tego zjawiska jest nastpujcy przyklad (D'Agostino, Floridi 2009: 287): Przyklad 1: Rozwamy regul, która mówi nam, e informacja ,,P Q jest prawd" zawarta jest w naszym obecnym stanie informacyjnym S. Rozwamy teraz powikszenie S przez now informacj: ,,P jest prawd" lub przez now informacj ,,Q jest prawd". W obu przypadkach prowadzi to do stanu informacyjnego, który zawarty jest implicite w obecnym stanie informacyjnym na mocy znaczenia dysjunkcji (alternatywy nierozlcznej). Regula ta oparta jest wic na zaloeniu, e zawsze moliwe jest przejcie ze stanu informacyjnego zawierajcego informacj ,,P Q jest prawdziwe" do stanu informacyjnego zawierajcego ,,P jest prawdziwe", jak te do stanu informacyjnego ,,Q jest prawdziwe". Akceptujc to zaloenie, nasza regula wyjania czciowo znaczenie alternatywy nierozlcznej przez wirtualne stany informacyjne, które mog by osigalne z obecnego stanu informacyjnego S ­ stany informacyjne zdecydowanie bogatsze od obecnego stanu informacyjnego S. Zatem oba wirtualne stany informacyjne zawieraj informacj, która nie jest zawarta w obecnym stanie informacyjnym S. System W-E nie zawiera adnej reguly inferencji, któr ilustrowal powyszy przyklad. Znaczenie operatorów logicznych w systemie W-E jest definiowane przy pomocy regul inferencji, które nie formuluj koniecznego i wystarczajcego warunku dla poszczególnego operatora, lecz nakladaj na dziedzin wartociowa ograniczenia, zachowujce zamierzone znaczenie operatora. Znaczenia te nie pokrywaj si z klasycznymi znaczeniami operatorów logicznych. Z obliczeniowego punktu widzenia istotne jest, e takie operatory logiczne s praktycznie obliczalne. Kady agent, który respektuje znaczenie takich operatorów logicznych, jest w stanie odróni dopuszczalne i niedopuszczalne wartociowania. Na przyklad wartociowanie v(P Q) = 1 i v(P) = 0, zawarte w obecnym stanie informacyjnym, czyni wartociowanie v(Q) = 0 niedopuszczalnym w tym samym stanie informacyjnym. Powiemy, e informacja dotyczca wartoci Q jest zawarta implicite w obecnym stanie informacyjnym na mocy znaczenia dysjunkcji. Przyjmiemy w zwizku z tym nastpujc definicj powierzchniowej informacji kognitywnej. Definicja 1: Powierzchniowa informacja kognitywna jest to calo informacji, jak agent posiada explicite i implicite na podstawie znaczenia ope- ratorów logicznych oraz na mocy zasady zachowania niesprzecznoci ze znaczeniem tych operatorów. Zanim zdefiniujemy pojcie powierzchniowej informacji kognitywnej glbokoci zerowej, musimy najpierw zdefiniowa kognitywny stan informacyjny glbokoci zerowej. Zalómy, e relacja bazowa BRCI zachodzi midzy stanami informacyjnymi reprezentowanymi przy pomocy wartociowa ­ wtedy nasza definicja kognitywnego stanu informacyjnego glbokoci zerowej przyjmie nastpujc posta:6 Definicja 2: Niech A bdzie zbiorem wszystkich dopuszczalnych wartociowa; wtedy dla kadej formuly P jzyka klasycznego rachunku zda L oraz i Î {1, 0}, dopuszczalne wartociowanie v jest kognitywnym stanem informacyjnym glbokoci zerowej, jeli v jest domknite ze wzgldu na warunek: Jeli v È { } Ï A, to Î v. Definicja ta mówi nam, e jeli dodanie, powiedzmy, informacji do stanu informacyjnego v uczyni to wartociowanie niedopuszczalnym, czyli sprzecznym ze znaczeniem glównej stalej logicznej w formule P, to informacja jest zawarta implicite w stanie informacyjnym v i na odwrót. Definicja 3: Informacja kognitywna glbokoci zerowej jest to informacja powierzchniowa, jak posiada agent w kognitywnym stanie informacyjnym glbokoci zerowej. Powstaje naturalne pytanie, w jaki sposób informacja implicite staje si informacj explicite. Byloby nierealistyczne spodziewa si, e podmioty kognitywne zdolne s do przetworzenia calej informacji implicite w informacj explicite w jednym kroku, niezalenie od dlugoci formuly i niezalenie od swych ograniczonych zasobów czasu i pamici. Proces przetwarzania informacji w informacj explicite moe by zaleny od konkretnego podmiotu i jego kognitywnych moliwoci, jak równie od jego indywidualnych celów: od tego, jak daleko chce on pój w swoim rozumowaniu. Taki stan rzeczy rodzi potrzeb rozwaenia kognitywnych stanów informacyjnych rónej glbokoci. Przyklad 2: Rozwamy interpretacj v tak, e v(P Q) = 1, v(P R) = 1, v(Q R) = 1. Aby wywnioskowa, e v(R) = 1, podmiot musi powikszy swój Por. D'Agostino i Floridi 2009: 299. Krystyna Misiuna obecny stan informacyjny co do stwierdzenia P. Chocia informacja o wartoci R jest implicite zawarta w stanie informacyjnym v, to aby uczyni t informacj informacj explicite, podmiot musi rozumowa glbiej: warto logiczna P jest niezdefiniowana w stanie informacyjnym v, lecz dowolny inny stan informacyjny v', który jest zgodny ze stanem v na wszystkich formulach, dla których v jest zdefiniowane i w których P jest zdefiniowane, musi by taki, e albo v'(P) = 0, albo v'(P) = 1. W obu przypadkach warto R jest zdefiniowana przez v' na mocy znaczenia operatora implikacji i dysjunkcji oraz na mocy warunku sformulowanego w definicji informacji kognitywnej glbokoci zerowej. Zatem aby uczyni warto R informacj explicite, podmiot musi rozway moliwe wartoci P, czyli musi rozszerzy obecny stan informacyjny ze wzgldu na P. Inaczej mówic, aby warto R uczyni informacj explicite, podmiot musi rozway wirtualne wartociowania (wirtualne stany informacyjne), które s bardziej dookrelone ni obecny stan informacyjny. Uycie informacji wirtualnej nie powiksza obliczeniowego kosztu wnioskowania7. Przyklad ten pozwala na uogólnienie pojcia glbokoci informacji kognitywnej. Definicja 4: Dla kadej liczby naturalnej k ¹ 0 kognitywny stan informacyjny glbokoci k jest dopuszczalnym wartociowaniem v domknitym ze wzgldu na nastpujcy warunek: jeli istnieje formula atomowa P taka, e v'(Q) = i, gdzie i Î {0, 1} dla kadego kognitywnego stanu informacyjnego v' glbokoci k ­ 1, takiego e v' zgadza si z v na wszystkich formulach, dla których v jest zdefiniowane i v' definiuje warto P, to v(Q) = i dla kadej formuly Q nalecej do jzyka rachunku zda L. Definicja 5: Informacja kognitywna glbokoci k jest to calo informacji, jak posiada agent w kognitywnym stanie informacyjnym glbokoci k. Wprowadzone pojcia umoliwiaj modelowanie podmiotu kognitywnego, dla którego spelniony jest warunek maksymalny relacji bazowej BRCI na dowolnym poziomie k. W kognitywnym stanie informacyjnym dowolnej glbokoci k podmiot kognitywny potrafi rozpozna now informacj, do jakiej prowadzi go wnioskowanie dedukcyjne, poniewa jego procedura rozstrzygania jest praktycznie obliczalna. Informacja kognitywna glbokoci k (dla dowolnej liczby naturalnej k), jak zdobywa podmiot kognitywny w drodze rozumowania dedukcyjnego, nie wyczerpuje fenomenu informacji kognitywnej. Szczególnym rodzajem infor7 Tame: 302. macji kognitywnej jest informacja, któr podmiot X rozpoznaje jako now, lecz która zarazem pozostaje w sprzecznoci z obecnym stanem informacyjnym X-a. Jak wiemy, klasyczna konsekwencja jest domknita na regul ex contradictione sequitur quodlibet (inaczej: ex falso quodlibet), która jako regula zastosowana do informacji kognitywnej jest w wysokim stopniu nierealistyczna. Powstaje zatem naturalne pytanie: jak modelowa informacj sprzeczn? 4. Modelowanie informacji sprzecznej Informacja sprzeczna nie dlatego jest niepodana, e na gruncie logiki klasycznej prowadzi do dowolnego wniosku, lecz dlatego, e rodzi powane problemy zwizane z jej interpretacj, i dlatego, e jest bezuyteczna przy podejmowaniu decyzji koniecznych dla zaplanowanych dziala, jakie musz podejmowa kognitywni agenci. J.M. Dunn pisze: Tak jak le jest wtedy, gdy mamy zbyt malo informacji, tak te jest le, gdy informacji mamy zbyt duo, czsto sprzecznej lub co najmniej niewiarygodnej. Osoba, która zdobyla wyksztalcenie w danej dziedzinie i w analizie informacji, musi j interpretowa. Staje si to coraz trudniejsze, gdy komputery oraz pokrewne technologie informacyjne i komunikacyjne zalewaj nas wszystkich informacj. (...) Przy takim zalewie informacj staje si coraz bardziej konieczne nie tylko zautomatyzowanie wyszukiwania, lecz równie zautomatyzowanie logiki stosowanej do wyników takiego wyszukiwania (Dunn 2010: 429). Byloby naiwne sdzi, e w przypadku informacji sprzecznej problem moe by rozwizany, gdy policzymy ródla informacji i podejmiemy decyzj zgodnie z tym, jak glosi ich wikszo. W szczególnym przypadku, gdy jedno ródlo mówi, e P, i informacja ta nie jest sprzeczna z naszym obecnym stanem informacyjnym, a drugie ródlo mówi, e nie-P, co przeczy naszemu obecnemu stanowi informacyjnemu, odwolujemy si do jeszcze jednego ródla informacji. Jeli wikszo ródel stwierdza P, to akceptujemy P, a gdy wikszo stwierdza nie-P, to akceptujemy nie-P. Jednak nie ma adnej gwarancji, e jeli wikszo stwierdza to samo, to stwierdzenie takie jest blisze prawdy. Modelowanie informacji sprzecznej wymaga innej logiki ni klasyczna. Bdziemy wic musieli skorzysta z jakiej logiki parakonsystentnej. Najlepsza dla naszego celu jest niewtpliwie 4-wartociowa logika Dunna-Belnapa. Przypomnijmy, e cztery wartoci tej logiki rozumiane s w taki sposób, e dwie z nich s klasycznymi wartociami prawdy i falszu (oznaczanymi odpowiednio przez t i f), a dwie pozostale wartoci rozumiane s epistemicznie jako informacja sprzeczna (B) i jako brak informacji (N). Te cztery elementy Krystyna Misiuna tworz krat De Morgana (DM4) z dwoma porzdkami: porzdkiem prawdy i porzdkiem informacji. Pojcie interpretacji i relacji konsekwencji definiuje si w tej logice w nastpujcy sposób. Definicja 6: Interpretacja dla 4-wartociowej logiki Dunna-Belnapa jest funkcj v ze zbioru formul jzyka tej logiki w DM4. Funkcja ta rozszerza si na formuly zloone w standardowy sposób. Definicja 7: Trzy poniej zdefiniowane relacje konsekwencji 4-wartociowej logiki Dunna-Belnapa s równowane: · · · A <t B wtw, jeli t Î v(A), to t Î v(B). A <f B wtw, jeli f Î v(B), to f Î v(A). A <t,f B wtw, jeli zarazem A <t B i A <f B. W definicji 7 pierwsza równowano definiuje relacj konsekwencji jako zachowujc warto prawdy; w drugiej równowanoci relacja konsekwencji zachowuje falszywo; w trzecim przypadku ­ zachowuje obie wartoci. Te trzy relacje konsekwencji s ekstensjonalnie identyczne8. Informacja kognitywna wymaga uwzgldnienia epistemicznego stanu niepewnoci, w jakim znajduje si podmiot, który najczciej w swoim yciu ma do czynienia z informacj niekompletn i czsto te sprzeczn. Bdziemy modelowali niepewno przyporzdkowujc przekonaniom podmiotu ich stopnie, reprezentowane przez liczby rzeczywiste z przedzialu [0, 1], gdzie 0 reprezentuje absolutny brak pewnoci co do wystpienia danego zdarzenia (czyli pewno, e dane zdarzenie nie nastpi), a 1 reprezentuje absolutn pewno co do tego, e zdarzenie nastpi. Zakladamy, e przyporzdkowania te nie s calkowicie arbitralne, lecz uzasadnione s przez nasz informacj o moliwych wystpieniach zdarze. Informacja ta moe przesdza, jak bd rozloone nasze oszacowania co do stopnia przekonania w sprawie wystpienia danego zdarzenia, co do braku przekonania, jak równie co do niepewnoci w sprawie wystpienia tego samego zdarzenia. Dunn (2010) zwraca uwag na dwa rodzaje niepewnoci: zwizany z niewystarczajc informacj oraz zwizany z konfliktem informacji. W logice Dunna-Belnapa oba rodzaje informacji reprezentowane s odpowiednio przez dwie wartoci epistemiczne: N i B. Modelowanie niepewnoci wymaga zdefiniowania probabilistycznej funkcji interpretacji i probabilistycznej relacji konsekwencji. 8 Klasyczna relacja konsekwencji moe by równie zdefiniowana równowanie jako zachowujca prawdziwo, jako zachowujca falszywo i jako zachowujca obie wartoci. Definicja 8: Interpretacja probabilistyczna jest funkcj p ze zbioru formul jzyka rachunku zda w zbiór liczb rzeczywistych z domknitego przedzialu [0, 1], która spelnia aksjomaty Kolmogorowa nakladane na funkcj prawdopodobiestwa. Interpretacja probabilistyczna nie rozszerza si w sposób jednoznaczny na formuly zloone, jak ma to miejsce w przypadku funkcji interpretacji jzyka klasycznego rachunku zda, która jest jednoznacznym rozszerzeniem funkcji wartociowania zmiennych. W standardowej teorii prawdopodobiestwa mamy przyporzdkowania liczb z przedzialu [0, 1] zmiennym zdaniowym, które mog si rozszerza do funkcji p na wiele rónych sposobów spelniajcych aksjomaty Kolmogorowa definiujce skoczenie addytywn funkcj prawdopodobiestwa9. Definicja 9: Nieklasyczna probabilistyczna relacja konsekwencji definiowana jest w nastpujcy sposób (Dunn 2010): · · · A <b B wtw, gdy dla kadej funkcji v: v(A) £ v(B). A <d B wtw, gdy dla kadej funkcji v: v(B) £ v(A). A <b, d B wtw, gdy zarazem A <b B oraz A vb'(P) = 0,1. Pominiemy tu inne rodzaje reakcji na informacje konfliktowe i sprzeczne, o których mówi nauki kognitywne. Kognitywici zauwaaj, e nowa informacja konfliktowa jest najczciej przez stan informacyjny asymilowana i jednoczenie znieksztalcana. Nasz przyklad jest ilustracj takiej sytuacji, kiedy podmiot odpowiada na informacj konfliktow przez jej znieksztalcenie (w naszym przypadku dotyczce stopnia przekonania) w procesie asymilacji. Zdarza si jednak, e agent usuwa sprzeczno nie poprzez rewidowanie swego obecnego stanu informacyjnego. Na przyklad moe odklada na póniej zajmowanie si sprzecznoci lub konfliktowoci informacji lub przypisywa mniejsz wag, ni zwykle to robimy, do sprzecznoci lub konfliktowoci przekona11. 11 Szereg eksperymentalnie potwierdzonych sposobów reakcji na informacje konfliktowe i sprzeczne podaj Chi i Ohlsson (2005). Krystyna Misiuna 5. Modelowanie informacji kognitywnej wnioskowa indukcyjnych Modelowanie informacji sprzecznej wymuszalo odwolanie si do poj probabilistycznych. Podamy teraz definicje tych poj, z których korzystalimy przy analizie informacji konfliktowych i sprzecznych. Pojcia te wykorzystamy równie przy modelowaniu informacji kognitywnej, do jakiej prowadz rozumowania indukcyjne. Definicja 10: Przekonaniowy stan informacyjny jest funkcj interpretacji ze zbioru formul danego jzyka w domknity przedzial liczb rzeczywistych [0,1], tak, e przyporzdkowuje ona formulom reprezentujcym stwierdzenia nalece do stanu informacyjnego agenta trójk liczb rzeczywistych: vb, vd, vu z przedzialu [0,1], które reprezentuj odpowiednio stopie przekonania, stopie braku przekonania i stopie niepewnoci agenta oraz spelniaj warunek: vb + vd + vu = 1. Definicja 11: Informacja przekonaniowa jest caloci informacji, jak posiada agent, wyraan przez jego (lub jej) stopnie przekonania, stopnie braku przekonania i stopnie niepewnoci co do stwierdze nalecych do jego (jej) obecnego stanu informacyjnego. Przyklad 4: W szczególnym przypadku Y moe by nowym kognitywnym stanem informacyjnym X-a, który pozostaje w relacji BRCI do obecnego stanu informacyjnego X-a. Niech obecny kognitywny stan informacyjny X-a bdzie opisany przez nastpujce przyporzdkowanie liczb rzeczywistych z przedzialu [0,1] stwierdzeniu Q: ,,Wszystkie wróble s szare": vb(Q) = 0,9 vd(Q) = 0,01 vu(Q) = 0,09. Jeli teraz informacja E: ,,Ten wróbel, który wlanie siedzi na drzewie, jest szary" jest przekazana z nowego stanu kognitywnego X-a do stanu kognitywnego opisanego wyej, X jest zmuszony do przyjcia tej informacji, a nastpnie do uaktualnienia swego obecnego stanu informacyjnego dotyczcego koloru wróbli. Problematyczne jest to, jak podmiot kognitywny przeprowadza tak aktualizacj, jeli posiada on (ona) absolutn pewno co do tego, e informacja E jest prawdziwa, a wic gdy vb(E) = 1. Zalómy, e agent zawsze respektuje zasad niesprzecznoci przy aktualizacji swego obecnego kognitywnego stanu informacyjnego. Równie w tym przykladzie mog by róne dopuszczalne sposoby takiej aktualizacji. W wikszoci s one zalene od kontekstu, wlczajc takie czynniki, jak stopie jzykowej kompetencji podmiotu, posiadanie przez niego relewantnej informacji, jego (jej) pesymistyczne lub optymistyczne nastawienie oraz wplyw, jaki mog wywiera fakty z jego (jej) najwieszego dowiadczenia. Zalómy, e nowy stan kognitywny X-a opisany jest przez nastpujce przyporzdkowanie: vb'(Q) = 0,95, vd'(Q) = 0,01, vu'(Q) = 0,04. Zauwamy, e stopie niepewnoci X-a co do prawdziwoci stwierdzenia Q jest mniejszy w nowym stanie kognitywnym, chocia nowa funkcja v' jest rozszerzeniem funkcji v, a powikszenie stanu informacyjnego X-a ma charakter monotoniczny. Powtarzajc procedur uaktualniania probabilistycznego stanu informacyjnego w odniesieniu do Q wystarczajc ilo razy, moemy si spodziewa, e kognitywny stan informacyjny X-a przyjmie nastpujce wartoci: vb''(Q) = 1,00, vd''(Q) = 0,00, vu''(Q) = 0,00. Z reguly zdania ogólne takie jak Q s uwaane za wnioski wnioskowa dedukcyjnych. W naszym ujciu warto przyporzdkowana zdaniu Q jest wynikiem subiektywnego oszacowania ­ chocia obiektywne czynniki s brane pod uwag przy tego rodzaju oszacowaniach. Ujcie to w literaturze nosi nazw subiektywnego bayesianizmu, którego najbardziej przekonujcym obroc jest, moim zdaniem, Bruno de Finetti (2008). W jego teorii informacja zawsze narzuca ograniczenia na rozklad prawdopodobiestwa (lub stopni przekona). De Finetti slusznie jednak zauwaa, e informacja dotyczca czstoci jest z reguly skpa i w wielu przypadkach nie moe by pomocna w dokonaniu wlaciwych oszacowa w terminach prawdopodobiestwa. De Finetti twierdzi, e dokonywanie porówna midzy naszymi wlasnymi oszacowaniami prawdopodobiestw, jak równie porówna z oszacowaniami przeprowadzanymi przez innych, moe oddzialywa na nasze sdy dotyczce prawdopo- Krystyna Misiuna dobiestw w równym stopniu jak informacja innego rodzaju. M.C. Galavotti pisze: Praca De Finettiego jest pod tym wzgldem w zgodzie ze stanowiskiem szeroko rozprzestrzenionym zwlaszcza wród bayesowskich statystyków, które znalazlo wyraz w rozleglej literaturze na temat ,,dobrego kalibru" metod oszacowywania prawdopodobiestw (Galavotti 2011: 195). Przyklad 4 zasluguje z wielu powodów na gruntowniejsz analiz. Spróbujmy potraktowa go jako ilustracj tzw. wnioskowania indukcyjnego, którego przeslanka jest modelowana jako skoczony cig stwierdze opisujcych dane empiryczne, natomiast konkluzja jest skoczonym cigiem stopni przekona: (A) E1, E2, E3, ......................, En; n Î N ­ {0} (B) pb,1(Q), pb,2(Q),.................pb,n(Q); pb,n(Q) » 1. Cig stwierdze empirycznych wraz z cigiem oszacowa B prowadz do wniosku Q, którego warto jest bliska prawdy. Problem dotyczy skonstruowania adekwatnego modelu takiego rozumowania, gdy kade stwierdzenie w cigu A posiada stopie przekonania równy 1, natomiast stopnie przekona s rosncym cigiem liczb rzeczywistych z przedzialu [0,1]. Moemy spojrze na cig A jako na skoczony cig niezalenych zdarze i oszacowa prawdopodobiestwo tego cigu jako iloczyn prawdopodobiestw kolejnych zdarze. Gdyby wartoci tych prawdopodobiestw byly wiksze od 0, a mniejsze od 1, wtedy moglibymy oczekiwa, e wielko ich iloczynu jest te wiksza od 0 i mniejsza od 1. Przy zaloeniu, e warto konkluzji Q jest prawie równa 1, moglibymy wnosi, e spelniona jest nierówno: pb(A) £ pb(Q), dla dowolnego oszacowania spelniajcego warunki nakladane na funkcj prawdopodobiestwa przez definicj 9. Tym samym moglibymy wnosi, e zachodzi relacja konsekwencji midzy przeslankami A i wnioskiem Q zgodnie z definicj 9. Okazuje si jednak, e sprawa nie jest tak prosta, na jak z pozoru wyglda, poniewa standardowa teoria prawdopodobiestwa, jaka kryje si za definicj funkcji prawdopodobiestwa oraz stopniami przekona, nastrcza wielu trudnoci natury pojciowej. Standardowa teoria prawdopodobiestwa, której podstawy stworzyl Kolmogorow w znanej pracy z roku 1933, odwoluje si do tzw. zasady regularnoci (RC), która mówi, e rozklad prawdopodobiestwa nad zbiorem zdarze jest regularny wtedy, gdy przyporzdkowuje prawdopodobiestwo 0 zbiorowi pustemu, a prawdopodobiestwo 1 zbiorowi wszystkich moliwych zdarze. Zasada RC jest równowana zasadzie, e kade moliwe zdarzenie ma prawdopodobiestwo wiksze od 0, jeli zamiast moliwych zdarze wemiemy pod uwag ich zbiory jednostkowe. Jeszcze inne sformulowanie powyszej zasady, równowane jej sformulowaniom wczeniejszym, jest nastpujce: funkcja prawdopodobiestwa jest regularna wtedy, gdy przypisuje prawdopodobiestwo 1 tylko prawdom logicznym, natomiast prawdopodobiestwo 0 tylko sprzecznociom. Wiadomo, e RC prowadzi do paradoksów, gdy zbiór moliwych zdarze jest nieskoczony lub nieprzeliczalny12. Jako jeden z pierwszych, K. Popper (1935), nie podzielajc pogldu Carnapa, e wszystkie funkcje prawdopodobiestwa s regularne, argumentowal, e wielu sdom ogólnym mówicym o nieskoczonej liczbie przedmiotów powinno by przyporzdkowane prawdopodobiestwo równe 0. W naszym przykladzie kady element cigu A ma warto 1 w przekonaniowym stanie informacyjnym ­ w przeciwiestwie do tego, co mówi nam zasada RC. Standardowa teoria prawdopodobiestwa mówi nam, e prawdopodobiestwo cigu zdarze, którym przysluguj dwie wlasnoci, jak w przypadku cigu rzutuów monet, gdzie w kadym rzucie moemy otrzyma tylko jedn z dwu moliwoci: orla lub reszk, dla kadej liczby naturalnej n wynosi 1/2n (2-n). W konsekwencji zatem prawdopodobiestwo cigu empirycznych wiadectw bdzie posiadalo coraz mniejsze prawdopodobiestwo, gdy liczba wiadectw bdzie coraz wiksza. Tak wic stopie potwierdzenia wniosku przez stwierdzenia empiryczne nie moe by utosamiany z prawdopodobiestwem wniosku ze wzgldu na prawdopodobiestwa cigu tych stwierdze pelnicych funkcj przeslanek13. Problem ten wymaga gruntowniejszej analizy metody uaktualniania stosowanej przez podmioty kognitywne przy przejciu z jednego przekonaniowego stanu informacyjnego do innego. Zakladamy, e istnieje pewien pocztkowy przekonaniowy stan informacyjny, w którym warto Q jest najmniejsza. Nazwijmy t warto najmniejszym pocztkowym przekonaniem14. Powstaje pytanie, jaka regula inferencji czyni moliwym przejcie od cigu empirycznych przeslanek A do wniosku Q, którego warto przekonaniow okrela ostatni element cigu B. Wemy pod uwag analiz prawdopodobiestwa warunkowego w pracy Kolmogorowa (1933). Zgodnie z podan tam równoci moemy modelowa rozumowanie podmiotu kognitywnego jako prawdopodobiestwo warunkowe wniosku Q przy danych przeslankach A, jeli wczeniejszy stopie przekonania jest P: Zob. w tej sprawie Popper 1935 i 2005, Hájek 2003 oraz Williamson 2007. Por. Popper 2005: 408. 14 Najmniejsze pocztkowe prawdopodobiestwo nie musi by utosamiane z prawdopodobiestwem a priori w teorii Bayesa. Krystyna Misiuna (CN) P'(Q (A)) = P(Q (A))/P(A) = P(Q) × P(A)/P(A) = P(Q) P(A) > 0. Równo CN pokazuje, e prawdopodobiestwo warunkowe zdefiniowane standardowo jest w naszym przypadku bezuyteczne, gdy sprowadza si do prawdopodobiestwa wniosku Q, którego warto jest niezalena od prawdopodobiestwa przeslanek. Inna moliwo, jaka si w sposób naturalny narzuca, to wykorzystanie reguly Bayesa w charakterze reguly inferencji. Mona pokaza, e regula ta jest konsekwencj aksjomatyki prawdopodobiestwa podanej przez Kolmogorowa przy jego analizie prawdopodobiestwa warunkowego. Regula Bayesa mówi, e jeli dany jest cig zda obserwacyjnych A i cig hipotez B, to moemy obliczy prawdopodobiestwo warunkowe hipotezy, która w najwikszym stopniu wyjania te dane, zgodnie z nastpujc równoci: (BR) P'(Q (A)) = P((A) Q) × P(Q)/P(A) P(A) > 0. Jeli prawdopodobiestwo interpretujemy jako stopie przekonania, wtedy P(A) = 1, a w konsekwencji dostajemy ten sam wynik, którego chcielimy unikn poprzednio: P'(Q (A)) = P(Q). Równie i w tym przypadku nie jestemy w stanie uchwyci zwizku zachodzcego midzy cigiem przeslanek a wnioskiem. Wniosek, do jakiego prowadz te analizy, jest taki, e funkcja prawdopodobiestwa, interpretowana jako stopie przekonania, nie moe by adekwatnym modelem zwizku, jaki zachodzi midzy skoczonym cigiem obserwacyjnych przeslanek A a konkluzj Q. W tej sytuacji najlepszym rozwizaniem naszego problemu jest wprowadzenie pojcia kognitywnego prawdopodobiestwa potwierdzania wniosku Q przez cig obserwacji A jako pojcia pierwotnego. Bdziemy oznaczali to prawdopodobiestwo symbolem Pc z jego dwoma argumentami oddzielonymi przecinkiem: (CSP) P(Q) =df Pc(Q, (A)). CSP jest stopniem potwierdzenia wniosku Q przez koniunkcj przeslanek A. Warto kognitywnego prawdopodobiestwa potwierdzenia jest w naszym przykladzie bliska 1. Zauwamy, e Q nie wynika logicznie z koniunkcji przeslanek A. Inaczej mówic, otrzymalimy w CSP przekonaniowy stan informacyjny Pc, bardziej realistyczny ni stan informacyjny reprezentowany przez funkcj prawdopodobiestwa pb, interpretowan jako stopie przekonania podmiotu X. Tym samym definicja probabilistycznej relacji konsekwencji w nieklasycznej logice probabilistycznej w zastosowaniu do przykladów tego typu co przyklad 4 moe dawa inne wartoci ni prawdopodobiestwo Pc. Kogni- tywne prawdopodobiestwo potwierdzania powinno zatem zastpi w uzasadnionych przypadkach zarówno standardowe prawdopodobiestwo warunkowe, jak te regul Bayesa oraz funkcj prawdopodobiestwa interpretowan jako stopie przekonania, przy modelowaniu informacji kognitywnej. Nasza analiza pokazuje zarazem, e adna z relacji konsekwencji zdefiniowanych w definicji 9 nie zachodzi, gdy wnioskiem jest generalizacja, a przeslankami s zdania szczególowe podpadajce pod tak generalizacj. W wietle naszej analizy midzy tego rodzaju wnioskiem a tak sformulowanymi przeslankami zachodzi relacja, któr nazwalibymy relacj potwierdzania wniosku przez przeslanki, która reprezentowana jest przez dwuargumentow funkcj kognitywnego prawdopodobiestwa potwierdzania. Natomiast standardowa teoria prawdopodobiestwa nie reprezentuje adekwatnie relacji potwierdzania. Zgodnie z warunkiem maksymalnoci, przyjtym w stosunku do relacji bazowej BRCI, podmiot rozpoznaje informacj kognitywn, gdy jej tre jest nowa w stosunku do jego (jej) obecnego stanu informacyjnego lub jest zawarta implicite w obecnym stanie informacyjnym podmiotu, jak ma to miejsce w przypadku informacji, jakiej dostarczaj wnioskowania dedukcyjne. To samo zachodzi równie w przypadku informacji, jakiej dostarczaj wnioskowania indukcyjne, których przyklad analizowalimy wyej. Jednak informacja kognitywna, przekazywana generalizacji na podstawie danych empirycznych, jest tylko czciowo zawarta w obecnym stanie informacyjnym podmiotu. Nawizujc do idei Poppera (1935), który uwaal, e moemy sformulowa teori prawdopodobiestwa opierajc si na pierwotnym pojciu prawdopodobiestwa, Hájek (2003) argumentuje, e przyjcie warunków nakladanych na prawdopodobiestwo przez Kolmogorowa (1933), jak warunek przeliczalnej addytywnoci i warunek regularnoci, prowadzi do nieintuicyjnych przykladów. Oto niektóre z takich przykladów, wymuszajce zastpienie standardowego prawdopodobiestwa warunkowego prawdopodobiestwem warunkowym rozumianym jako pojcie pierwotne, które zgodnie z przyjtym przez nas oznaczeniem bdziemy symbolizowali jako Pc. Pc (w nieskoczonej serii rzutów monet wypada orzel, w nieskoczonej serii rzutów monet wypada orzel) = 1. Natomiast przy standardowej analizie prawdopodobiestwa warunkowego CN otrzymalibymy niezdeterminowane prawdopodobiestwo warunkowe tylko dlatego, e prawdopodobiestwo stwierdzenia ,,W nieskoczonej serii rzutów monet wypada orzel" = 0. Zerowe prawdopodobiestwo powyszego zdania jest wynikiem tego, e przy nieskoczenie dlugiej serii rzutów n, warto 1/2n zmierza do zera. Nieintuicyjno tego oszacowania wynika std, e mamy poczucie niezgodnoci midzy naszym pojciem moliwoci, które Krystyna Misiuna kwalifikuje jako logicznie moliwy stan rzeczy to, e w nieskoczonej serii rzutów wypada orzel, a standardow teori prawdopodobiestwa. Niewtpliwie niezgodno ta wplynie na ograniczone zastosowanie teorii prawdopodobiestwa w teorii informacji kognitywnej. Inne nieintuicyjne przypadki, wymuszajce ograniczone zastosowanie standardowej teorii prawdopodobiestwa, to midzy innymi: · Pc (M, M) = 1 jeli ,,M" jest zdaniem logicznie moliwym. Przy standardowej analizie prawdopodobiestwa warunkowego CN otrzymalibymy w takim wypadku niezdeterminowan warto prawdopodobiestwa warunkowego. Pc (T, M) = 1, jeli ,,T" jest stwierdzeniem koniecznym. Przy standardowej analizie otrzymalibymy niezdeterminowan warto prawdopodobiestwa warunkowego. Pc (F, M) = 0, jeli ,,F" jest zdaniem koniecznie falszywym. Przy standardowej analizie otrzymalibymy niezdeterminowane prawdopodobiestwo warunkowe. Powrómy do warunku praktycznej obliczalnoci, którego spelnienia oczekujemy od BRCI. Z reguly problem praktycznej obliczalnoci jest rozwizywany przez poszukiwanie podzbioru wlaciwego w logice 1-go rzdu, która jako calo nie jest praktycznie obliczalna. Jeden z ostatnich wanych wyników dotyczcych interesujcego nas tu problemu praktycznej obliczalnoci jest zaslug dwóch badaczy zajmujcych si teori zloonoci, P. Domingosa i W.A. Webba (2012), którzy definiuj praktycznie obliczaln logik probabilistyczn 1-go rzdu. Rozwaaj oni podzbiór probabilistycznej logiki Markowa i pokazuj, e relacja konsekwencji takiej logiki jest praktycznie obliczalna. Z naszego punktu widzenia wane jest, e na wejciu algorytm w systemie dowodowym tej logiki ma probabilistyczn baz informacji K oraz formul q, reprezentujc nasz problem, natomiast na wyjciu otrzymujemy standardowe prawdopodobiestwo warunkowe postaci: p(q K) = Z(K È { (q, 0) })/ Z(K), gdzie Z(K) jest funkcj podzialu logicznego zbioru K, a Z(K È {(q, 0)}) jest funkcj podzialu logicznego zbioru K wraz z formul q reprezentujc nasz problem. Jest to wynik, który umoliwia wykorzystanie go w teorii informacji kognitywnej. Zastosowany do naszego przykladu, wynik ten dawalby równo postaci: Pc(q, (A)) = Z((A) È { (q, 0) })/ Z(A). Domingos i Webb (2012) dowodz, e tego rodzaju problemy maj wielomianow zloono czasow. 6. Modelowanie informacji autoepistemicznej Informacja kognitywna, jak podmiot otrzymuje dziki relacji bazowej BRCI, nie sprowadza si jedynie do informacji pochodzcej z otoczenia oraz do informacji uzyskanej przez rozumowania dedukcyjne i niededukcyjne. Obok tych kluczowych rodzajów informacji kognitywnej istnieje równie inny rodzaj informacji kognitywnej charakterystyczny dla istot wiadomych. Jest to informacja, której ródlem jest wiadomo podmiotu dotyczca jego (jej) informacji kognitywnej. Podamy najwaniejsze, naszym zdaniem, prawa, jakie obowizuj w stosunku do informacji kognitywnej. Sformulujemy je w metajzyku w stosunku do jzyka przedmiotowego teorii informacji kognitywnej, w którym operator ,,jest poinformowany, e" bdzie symbolizowany przez I. (1) (2) (3) (4) (5) IA I(A B) IB. I(A A). IA I(A (B B)). IA I A IB. IA I IA. Prawo 1 mówi, e informacja kognitywna nie jest domknita na implikacj materialn logiki klasycznej. Drugie prawo mówi, e istniej prawdy logiczne, o których podmiot moe by poinformowany, co jest wyrazem przekonania, e podmiot kognitywny nie posiada logicznej wszechwiedzy. Prawo 3 stwierdza, e istniej pary stwierdze logicznie równowanych takie, przy których podmiot moe by poinformowany tylko o jednym stwierdzeniu w parze. Prawo 4 mówi, e informacja kognitywna podmiotu moe by konfliktowa lub sprzeczna, co nie prowadzi do tego, e do stanu informacyjnego takiego podmiotu naley dowolne stwierdzenie. Prawo 5 natomiast wyraa pozytywn introspekcj15. Zalómy, e jzyk teorii informacji kognitywnej ograniczymy do jzyka logiki zda wraz z dodatkowym operatorem I. Jeli obecny stan kognitywny podmiotu ograniczymy do koniunkcji: j1 j2 j3 ... jn, to moemy postawi naturalne pytanie, jak podmiot moe rozstrzygn, czy jest on poinformowany, e y, gdzie y jest nowym stwierdzeniem w stosunku do obecne15 Argumentacj przeciwko prawu negatywnej introspekcji w odniesieniu do informacji rozumianej kognitywnie przedstawilam w pracy Misiuna 2012. Krystyna Misiuna go stanu informacyjnego. Nieco innym ujciem tego samego problemu jest pytanie, czy istnieje algorytm o wielomianowej zloonoci czasowej, który rozstrzyga, czy prawdziwe jest w naszej teorii zdanie: (T) I(j1 j2 j3 ... jn) Iy. Analogiczny problem byl badany przez Liu, Lakemeyera i Levesque'a (2004) dla zdania T, w którym miejsce operatora I zajmuje operator przekonania B. Autorzy dowodz, e w przypadku klasycznego rachunku zda, okrelenie prawdziwoci T moliwe jest w czasie: O((m n)k + 1). Mamy tu do czynienia ze standardow notacj, gdzie m jest dlugoci formuly y, a n dlugoci koniunkcji w formule T. Oszacowanie to mówi, e istnieje algorytm o wielomianowej zloonoci czasowej, który rozstrzyga T, inaczej mówic, algorytm, którego czas jest ograniczony z góry przez wyraenie wielomianowe. Wynik ten w zastosowaniu do teorii informacji kognitywnej mówi o praktycznej obliczalnoci relacji BRCI wystpujcej w kontekstach autoepistemicznych dla nieduych wielkoci stalej k. 7. Konkluzje Przedstawilimy zarys teorii informacji kognitywnej ze szczególnym zwróceniem uwagi na jej praktyczn obliczalno. Wniosek, do jakiego prowadz nasze analizy, jest taki, e praktycznie obliczalna i intuicyjnie adekwatna teoria informacji kognitywnej jest moliwa. Ten wynik ogólny jest podstaw do sformulowania nastpujcej definicji informacji kognitywnej. Przez informacj kognitywn rozumiemy zjawisko, na które skladaj si trzy rodzaje danych: (1) informacja zwizana ze znaczeniem operatorów logicznych, jak dostajemy na drodze rozumowa dedukcyjnych; (2) informacja przekonaniowa, bdca miar naszego stopnia przekonania co do stwierdze empirycznych, oraz informacja przekonaniowa wyraajca si w prawdopodobiestwie potwierdzania uogólnie empirycznych, bdcych wnioskami we wnioskowaniach indukcyjnych; (3) autoepistemiczna informacja kognitywna, bdca informacj o naszej informacji. Wskazalimy w naszych analizach równie na niektóre ograniczenia zwizane z zastosowaniem standardowej teorii prawdopodobiestwa do teorii informacji kognitywnej. Bibliografia Bar-Hillel Y., Carnap R. (1952), An Outline of a Theory of Semantic Information, w: Y. Bar-Hillel (red.), Language and Information: Selected Essays on Their Theory and Application, Reading, Mass.: Addison-Wesley, s. 221­247. Chi M.T.H., Ohlsson S. (2005), Complex Declarative Learning, w: The Cambridge Handbook of Thinking and Reasoning, Cambridge: CUP. D'Agostino M., Floridi L. (2009), The Enduring Scandal of Deduction. Is Propositional Logic Really Uninformative?, ,,Synthese" 167, s. 271­315. De Finetti B. (2008), Philosophical Lectures on Probability, Dordrecht: Springer. Domingos P., Webb W.A. (2012), A Tractable First-Order Probabilistic Logic, ,,Proceedings of the 26 AAAI Conference on AI", Toronto, Canada: AAAI Press. Dunn J.M. (2010), Contradictory Information: Too Much of a Good Thing, ,,Journal of Philosophical Logic" 39, s. 425­452. Galavotti M.C. (2011), The Modern Epistemic Interpretation of Probability: Logicism and Subjectivism, w: D.M. Gabbay, S. Hartmann, J. Woods (red.) Handbook of the History of Logic, Vol. 10: Inductive Logic, Amsterdam: Elsevier, 153­203. Gao S. (2008), A Quantum Theory of Consciousness, ,,Minds and Machines" 18, s. 39­52. Hájek A. (2003), What Conditional Probability Could Not Be?, ,,Synthese" 137, s. 273­323. Hintikka J. (1970), Surface Information and Depth Information, w: J. Hintikka, P. Suppes (red.), Information and Inference, Dordrecht: Reidel, s. 263­297. Hintikka J. (1973), Logic, Language-Games and Information, Oxford: Clarendon Press. Josang A. (2001), A Logic for Uncertain Probabilities, ,,International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems" 9, s. 279­311. Kolmogorow A.N. (1933), Grundbegriffe der Wahrscheinlichkeitrechnung, ,,Ergebnisse der Mathematic". Krystyna Misiuna Landauer T.K. (1986), How Much Do People Remember? Some Estimates of the Quantity of Learned Information in Long-term Memory, ,,Cognitive Science" 10, s. 477­493. Liu Y., Lekemeyer G., Levesque H. (2004), A Logic of Limited Belief for Reasoning with Disjunctive Information, ,,Proceedings of the KR-2004 Conference", Whistler. Misiuna K. (2012), A Modal Logic of Information, ,,Logic and Logical Philosophy" 21, s. 33­51. Popper K.R. (1935), Logik der Forschung, Tübingen: Mohr. Popper K.R. (2005), The Logic of Scientific Discovery, Tylor and Francis e-Library. Shafer G. (1976), A Mathematical Theory of Evidence, Princeton: Princeton University Press. Williamson T. (2007), How Probable Is an Infinite Sequence of Heads?, ,,Analysis" 67, s. 173­180. Streszczenie Celem artykulu jest zarys teorii informacji kognitywnej. Jednym z waniejszych warunków, jakie nakladamy na pojcia informacji kognitywnej, jest jej praktyczna obliczalno, która przysluguje czasowej zloonoci obliczeniowej nie wikszej ni zloono wielomianowa. Okazuje si, e informacja kognitywna, jak uzyskujemy z wnioskowa dedukcyjnych, moe by informacj o wielomianowej zloonoci czasowej, jeli system dedukcyjny posiada odpowiednio dobrane reguly inferencji. Modelowanie informacji, której ródlem s wnioskowania dedukcyjne, jest jednym z trzech podstawowych zada, jakie stawiam sobie w tym artykule ­ obok modelowania informacji sprzecznej i modelowania informacji przekonaniowej, której ródlem s wnioskowania niededukcyjne oraz treci sdów dowiadczalnych. Modelowanie informacji kognitywnej pochodzcej z wnioskowa probabilistycznych odsyla do pojcia prawdopodobiestwa. Klasyczna teoria prawdopodobiestwa nie moe jednak by wykorzystana do tego celu bez zastrzee. Argumentuj na rzecz wprowadzenia jako pojcia pierwotnego kognitywnego prawdopodobiestwa warunkowego. Formuluj równie postulaty autoepistemicznej informacji kognitywnej, podkrelajc jej praktyczn obliczalno oraz praktyczn obliczalno informacji kognitywnej pochodzcej z wnioskowa probabilistycznych.

Journal

Przeglad Filozoficzny - Nowa Seriade Gruyter

Published: Jun 1, 2013

There are no references for this article.