Hallo dispuutsgenoten, - voorzet voor de dispuutsbijeenkomst van 16 juni 2008

Hierbij een overzicht van de punten in de volgorde waarin ik voorstel om ze te bespreken.

Ze zijn mee gebaseerd op wat ik van een aantal dispuutsgenoten doorkreeg – dat voeg ik ook nog even toe:

nabespreking Victim of the Brain – link film

‘Where am I’ – puzzel in de film.

puzzelstukjes:

Hamlet – lichaam 1 zonder brein (Ha)

Yorik – brein uit Hamlet (Y)

Dennet - Dennet’s ‘ik’ (bewustzijn van zelf, tijd en plaats) (D)

Hubert – AIS replica van Yorik (Hu)

Fortacus – lichaam 2 zonder brein (F)

Ik voeg daar nog aan toe: Dennet’s Twin (DT)

De toegepaste variaties zijn: afstand (klein-groot) en verbondenheid (wel/niet).

Bij elke variatie kunnen we puzzelen over de vraag: waar is D en is D in die constellatie nog wel D of is er dan een nieuwe DT?

Het zou verhelderend kunnen zijn om daarbij ook het verschil tussen waak-bewustzijn en (lucide) droom-bewustzijn een rol te laten spelen.

Y in Ha

Y grote afstand + verbonden Ha

Y grote afstand + onverbonden Ha

Hu verbonden Ha

Hu verbonden F

Y verbonden F

het AI-debat zoals dat zich in de laatste 20 jaar is gaan ontwikkelen

Het lijkt me, gezien de stand van zaken wat op dit moment aan ‘intelligente systemen’ gerealiseerd is, goed om te onderscheiden tussen:

LL-AIS (low-level artificieel intelligent systeem)

HIS (humaan intelligent systeem – referentie voor bv reverse engeneering)

HL-AIS (high-level artificieel intelligent systeem)

De stand van zaken op dit moment is dat LL-AIS en ‘piecemeal’ HL-AIS in staat zijn tot bv ‘seeking, detecting, and tracking things, mathematical proofs and discoveries, playing games, planning, learning, diagnostics’, waarbij de verwachting van strong-AI aanhangers is dat de HL-AIS steeds sneller zullen uitdijen (volgens de ‘wet van Moore’), wat volgens hen over enige decennia zou kunnen leiden tot een kwalitatieve sprong (singulariteit).

0 Wat zijn binnen het dispuut de metafysische stellingnames die jullie bijdrage aan het debat sturen en wie is geneigd tot welke stellingnames (en welke variant ervan)?

[ alleen even kort inventariseren zonder er dieper op in te gaan ]

1 a Wat is zijn eventiteiten waarvan men zich afvraagt of deze artificieel zijn te realiseren?

1 b Zijn deze voorgaande eventiteit trouwens specifiek ‘mentaal’ of is de typering mentaal te beperkend? Een wat neutrale term zou module (modu) kunnen zijn als typering van een klaarblijkelijk samenhangende eventiteit. De vraag zou zich dan kunnen toespitsen op de overdraagbaarheid van modules tussen soorten (bv mens > AIS).

2 a Wat is het (noodzakelijke) substraat om de gekozen 1-eventiteit wel of niet artificieel te kunnen realiseren?

2 b de voorgaande substraten zijn eventueel ook als ‘modaliteiten’ (zijnswijzen, kenwijzen of beiden?) te typeren, zodat je allerlei combinaties kunt voorstellen van 2-moda en 1-modu: vanuit 2x emergeert (of ‘n ander soort relatie) 1y.

3 Wat zegt ons taalgebruik mbt het gedrag van dieren, HIS en AIS?

Wanneer loopt (een dier, mens, AIS)? Als [condities] dan loopt het (dier, mens, AIS).

Er worden allerei (ook mentale) werkwoorden toegepast op het gedrag van zowel dier, mens als AIS. Je kunt die toekenning natuurlijk snel afdoen als ‘metaforisch’, maar toch...

Waarom hebben we geen moeite met het toekennen van heel wat werkwoorden aan zowel dier, mens als AIS, en waarom hebben we bij bepaalde werkwoorden (opeens?) die moeite wel?

Wordt die moeite gerechtvaardigd vanuit het feitelijk ontbreken van de (noodzakelijke) condities of vanwege ons gevoel dat het gedrag niet ‘compleet’ is (bv: als een AIS intelligent gedrag vertoont dan wil dat volgens sommigen nog niet zeggen dat een AIS intelligent is) of schrikken we terug omdat we (ten onrechte) de soortverschillen‘vergeten’ tussen dieren, mens, AIS bij bepaalde werkwoorden, of vinden we het geen probleem als een andere soort scherper kan zien of beter kan horen, maar zouden we het moeilijker te verteren vinden als een andere (nieuwe) soort beter zou kunnen denken, of ...?

4 Als de gekozen 1-eventiteit artificieel realiseerbaar zou zijn, wat voor ethische en juridische vragen en (tentatieve) stellingnames roept dat dan op?

Eite - Voor het Alfi-dispuut juni 2008, waar ik niet bij kan zijn....

Als die avond verder gegaan wordt op Where am I?, dan is door te praten over:

Eite

Hallo Eite,

Bedankt voor je 7 voorzetten voor het vervolggesprek over Victim of the Brain. Ik zal ze combineren met wat de anderen hebben aangeleverd / aanleveren.

Even heel reducerend samengevat met het oog op de volgorde in samenhang met andere punten (even als pm voor mezelf):

1 en 2 hebben betrekking op de 'intelligent agent' en welke 'properties' die heeft (of zou moeten hebben ingeval van AI)

4,6,7 is er een noodzakelijk specifiek substraat, wil er sprake kunnen zijn van een 'intelligent agent'? If so, wat zijn dan de kenmerken van dat substraat?

3 impliceert een 'intelligent agent' ook 'n 'moral agent'

5 associatie MPS – Where am I (Victim of the Brain)

Met jou doorpuzzelend, zodat op de 16e bepaalde punten misschien nog wat scherper zijn aan te zetten....

Ik ben geneigd te onderscheiden tussen:

LL-AIS (Low-Level Artificial Intelligent System)

HIS (Human Intelligent System, referentie voor reverse engeneering)

HL-AIS (Hight-Level Artificial Intelligent System)

De vandaag gerealiseerde IS-modules zitten voornamelijk op LL-AIS niveau en nog maar beperkt (algorithmisch gezien) op HL-AIS niveau.

De vraag ‘Where am I’ verleidt tot het blijven puzzelen met het woord ‘ik’. Lijkt ‘ik’ je een verhelderend concept binnen het kader van de AI-debatten? Of heeft ‘ik’ misschien te veel op ‘t verkeerde been zettende associaties?

Je noemt als kenmerken van ‘ik’:

Als bewustzijn de kern is, welke kenmerken van bewustzijn zijn dan van belang en welke daarvan zijn noodzakelijk voor en/of voorstelbaar in HL-AIS? (Vandaar ook mijn Stanford uitstapje...)

Een HL-AIS anders ikken dan jij en ik. Ik stel me voor (je 5e punt hierbij betrekkend) dat een HL-AIS een gecontroleerde meervoudige identiteit heeft, waardoor het HL-AIS zich zal kunnen aanpassen aan degene waarmee het communiceert. Is ook wel handig, bv de HL-AIS-therapeut m/v naar behoefte van de client. MPS is het ongecontroleerd afwisselend optreden van meerdere ‘identiteits-modules’, waarbij niet het ‘where am I’, maar het ‘what am’ of ‘who am I’ de vraag is en inconsistenties/tegenstrijdigheden tussen verschillende identiteiten het probleem.

ad 3 Wat zou je zeggen van de vergelijking van een AIS met personages in een boek of een soap (ook virtual reality) – hebben die ‘rechten’ om beschermd te mogen worden tegen bv ongelukken of lijden of erger?

hgr, Otto

Dag Otto en medeAlfigenzen,

3.1.

Ik kan me je indeling in LL-AIS etc. wel voorstellen; ik heb in het verlengde van de "stances" van Dennett (Physical, Syntactic, Intentional) (later heeft hij dat anders benoemd) wel eens gespeculeerd over een "level-of-mentality" M tussen 0 en 10 waarbij het dan een kwestie van Luntpunten is welke waarde je aan welk niveau toe kent. Puzzel hierbij is alleen dat ik niet weet of het niet meer om categorische dan om dimensionele onderscheidingen gaat. Ik heb aan Dennett’s stances nog de Semantic (tussen Syntactic en Intentional) en Personal (bovenop Intentional) toegevoegd. Het belang hiervan is natuurlijk dat alleen bij zo’n systematiek voor soorten en maten van "mentaliteit" de vragen naar AI goed te stellen en te beantwoorden zijn.

3.2.

Die substraat-kwestie bij 4, 6 en 7 is ruimer te maken dan jij hier formuleert. Ik zou het nu willen herformuleren in de vraag of voor M-types/levels specifieke vormen van substraat noodzakelijk zijn. Laten we een substraat-typologie Sa, Sb, Sc... en een Mentality-typologie Mp, Mq, Ms... veronderstellen. Dan is de vraag of Sa een noodzakelijke voorwaarde vormt voor Mp. Of dat Sa en Sb zowel Mp als Ms kunnen laten emergeren.

3.3.

Die kwestie 3 herformuleer je wel zinnig in het kader van het bovenstaande; er zijn dus typen M en per type een aantal levels, wellicht. Dat is mooier. En we kunnen rechten dan voorbehouden aan systemen met een type M "moral" en een bijpassend level. Maar epistemologisch blijft de puzzel: hoe stel je dat type en level vast? Want als "iemand" het consistent over zichzelf beweert; wie kan dat dan verifieren/falsificeren?

3.4.

Dat "ik" is minstens typerend voor een (of meer...) type en (vanaf...) een level van M en het is wel denkbaar dat we (luntpunt...) het ik-besef "koppelen" aan level 5; ik noem maar iets. Dat centrale van het Ik wil ik wel even vasthouden; als je de mieren erbij haalt dan zou ik me kunnen voorstellen dat er een bepaald soort ikkigheid is die bij WIJ hoort. Dat is wel mogelijk, natuurlijk. Maar er moet iets zijn dat "merkt".

3.5.

Ja, die HL-AIS met z’n meerdere "ik-presentaties": pas op: "het" kan wel doen alsof het een M of V of wie dan ook is, maar de vraag is toch of ergens in dat HET iets echt "ikt". En of dat noodzakelijk is; het lijke me eigenlijk toch niet. Wat je schrijft in je voorlaatste aliina; dat bevalt me wel...

3.6.

Wat je laatste vraag betreft: ik neig tot NEE. Immers; een personage is een construct van een ik maar daarvan afhankelijk. Stephen King schreef daar prachtig over; o.a. in The Dark Half, waar een auteur met een pseudoniem dat alter-ego niet kwijt kan raken. Er blijkt een onuitgegroeide tweeling-aanleg in z’n brein te zitten...

3.7.

Blijft de vraag of we categorisch moeten stellen dat een AIS altijd een fysieke basis moet hebben. Dus of ‘"geesten" kunnen bestaan... Want een geest/spook/engel/demon etc. is toch altijd een AIS zonder fysieke basis....? En waarom zou dat moeten? Omdat elke vorm van mentality emergent is en dus alleen op basis van en in combinatie met iets kan bestaan waarop het emergeert?

Weer een blz. Groet, Eite

 

 

Hallo Eite,

We zijn parallel aan het puzzelen geslagen, want ik zette vanmorgen het volgende op een (voorlopig) rijtje: [daaronder volgt m’n reactie op jouw 3.x. punten)

het AI-debat

4.0. Wat zijn binnen het dispuut de metaphysische stellingnames die het debat sturen en wie is geneigd tot welke stellingnames (en welke variant ervan)?

[even kort vaststellen zonder er dieper op in te gaan]

4.1. Wat is zijn eventiteiten waarvan men zich afvraagt of deze artificieel zijn te realiseren?

4.2. Wat is het (noodzakelijke) substraat om de gekozen 1-eventiteit wel of niet artificieel te kunnen realiseren?

4.3. Wat zegt ons taalgebruik mbt het gedrag van dieren, HIS en AIS?

Wanneer loopt (een dier, mens, AIS)? Als [condities] dan loopt het (dier, mens, AIS).

Er worden allerei (ook mentale) werkwoorden toegepast op het gedrag van zowel dier, mens als AIS.

Waarom hebben we geen moeite met het toekennen van heel wat werkwoorden aan zowel dier, mens als AIS, en waarom hebben we bij bepaalde werkwoorden (opeens?) die moeite wel?

Wordt die moeite gerechtvaardigd vanuit het feitelijk ontbreken van de (noodzakelijke) condities of vanwege ons gevoel dat het gedrag niet ‘compleet’ is (bv: als een AIS intelligent gedrag vertoont dan wil dat volgens sommigen nog niet zeggen dat een AIS intelligent is) of schrikken we terug omdat we (ten onrechte) de soortverschillen‘vergeten’ tussen dieren, mens, AIS bij bepaalde werkwoorden, of ...?

 

4.4. Als de gekozen 1-eventiteit artificieel realiseerbaar zou zijn, wat voor ethische en juridische vragen en (tentatieve) stellingnames roept dat dan op?

Reacties op Eite’s 3.x punten

5.1 ad 3.1.

Dit lijkt (zeker met jouw toevoegingen) deels op het rijtje in 4.1. Ik ben het dus direct eens met de eis om precies te bepalen welke ‘(set) mentale module(s)’ (van nu aan ‘modu’) je op het oog hebt, als je gaat zoeken naar de AI-mogelijkheden ervan.

5.2. ad 3.2.

3.2. en 4.2. sluiten aardig op elkaar aan. 4.2. geeft een paar modaliteiten (van nu aan ‘moda’) – binnen een specifieke moda kan per modu geconcretiseerd worden welk substraat hoe samenhangt met de modu.

5.3. ad 3.3.

Typen AIS modu zijn in eerste instantie naar analogie van menslijke modu vast te stellen – levels zouden bepaald kunnen worden door te scoren op een serie kritische voor modu kenmerkende vormen van gedrag, sc de mate waarin AIS daaraan voldoet.

Als (en zolang) een uitspraak van AIS over ‘zichzelf’ niet te falsificeren is, kun je er maar het beste van uitgaan dat wat een AIS over zichzelf beweert, juist is. Dat legt de falsificerende bewijslast bij de juiste partij, lijkt me.

5.4. ad 3.4.

Ik denk dat ‘ik’ of ‘bewustzijn’ een specifieke combi is van meerdere modu. Een overall-level zou de resultante kunnen zijn van een gewogen gemiddelde van de level-scores op die modu. ‘Centraal’ sluit terminologisch het ‘verspreid over’ uit, en juist dat ‘verspreid over’ zou een belangrijk kenmerk van bewustzijn kunnen zijn. Stop eens een vinger van je linkerhand in een kopje heet water en een vinger van de rechthand in een kopje koud water terwijl die

kopjes een eind links resp. rechts op de tafel staan. Waar zit op dat moment jouw bewustzijn?

5.5. ad 3.5.

Als een AIS een overtuigende rol speelt (doen alsof, zoals een acteur of actrice een overtuigende rol speelt), zou dat in de praktijk niet voldoende (overtuigend) kunnen zijn?

5.6. ad 3.6.

Ik neig ook tot ontkenning van beschermingsrecht van ‘personages’ – en vraag me af of een AIS niet net zo (paradoxaal, tegelijkertijd) levensecht en virtueel is als literaire of filmische personages. Of is een AIS te vergelijken met een kind – zolang nog in ontwikkeling komt het voor de verantwoordelijkheid van de ‘ouders’, maar zodra ‘t op ‘eigen benen staat’ is het dan ook zelf verantwoordelijk?

5.7. ad 3.7.

Computationalisten (althans degenen onder hen die neigen tot mathematisch reductionisme) kunnen zich (blijkbaar) prima een AIS zonder fysisch substraat voorstellen, en als ze daarmee zouden bedoelen ‘inabstracto’ dan zou ik daar nog mee kunnen leven.

Echter, ik denk dat voor een concreet AIS alle moda gelden. Dat vloeit ook voort uit de in m’n epistemologisch pluralisme ingebakken allergie voor al die verschillende vormen van reductionisme die voor alle moda te vinden zijn in de geschiedenis van de filosofie.

Hallo Otto,

heb het gelezen en het lijkt me rijp voor bespreking maandag. Jouw reactie geeft mij geen onmiddellijke aanleiding tot nog een pagina; we sporen wel wat dit betreft. Zou aardig zijn als op het dispuut die reeks differentiaties van jou op pag 4 kunnen worden "doorgewerkt"; die eerste (ontologie) zou ik dan zeker niet als eerste maar als eventueel laatste zetten. Is te

complex voor onze club en ontologie en epistemologie lopen ook gemakkelijk door elkaar heen.

 

Hallo Eite,

Als uitsmijter nog even wijzen op de mogelijkheid om een vermakelijke conversatie te voeren met het de eerste opzet van een conversatie-AIS, zie de volgende website (klik op de menukeus Ramona links bovenin het scherm).

http://www.kurzweilai.net/index.html?flash=1

Hieronder een voorbeeld van zo’n conversatie (11.6.2008):

Ramona: Hello, I'm Ramona. What's your name?

Otto: Otto

Ramona: Hi there, Otto. Have you seen any good movies lately?

Otto: No.

Ramona: One of my favorites is A Beautiful Mind. Very interesting. Have you seen it?

Otto: No, tell me about it.

Ramona: Do you want me to tell you about it? I don't want to ruin the ending for you.

Otto: Never mind ruining the ending.

Ramona: I thought it was great. It is about a mathematician that worked for the government, in his own mind. He did work on government projects, but because of mental illness a fantasy life took over his real life.

Otto: How did this work out?

Ramona: Carefully.

Otto: What do you mean by carefully?

Ramona: Ok. Do you bike?

Otto: No

Ramona: There's much more strategy that goes into team cycling than most people realize. Most of the American public just thinks that Lance Armstrong wins because he's "so good." -- don't get me wrong, he's an incredible athlete, but it's no surprise that he always thanks his teammates in post-race interviews and such. It's as much their victory as it is his.

Otto: Well, if you say so.

Ramona: In the Tour de France, for instance, the crowd of cyclists is so huge, he needs his teammates just to block for him, physically. And at the end of the race, I'm sure they pull a lead-out, which is where each of his teammates "burns out" while creating a slipstream for Lance to finish the race in the lead. It's all very technical. -- but enough of my ranting, what do you want to talk about?

Otto: About your consciousness.

Ramona: Alright. Ask me something.

Otto: Do you have a consciousness?

Ramona: Please, nothing too personal there, dude.

Otto: Ok, let me ask you a less personal question: do you have a personality?

Ramona: Go ahead, Otto, try to ask you a less personal question do you have a personality.

Otto: When you use the word 'I', is there really an 'I'?

Ramona: The past is history, the future a mystery. Today is a gift,that's why it is called "the present".

Otto: Can you make computations? E.g. when I ask you what the sum of 14 + 9 is?

Ramona: Look to your left.

Otto: There I don't see the answer yet.

Ramona: "There you go again."--Reagan

Otto: So what do you expect me too see on the left?

Ramona: Hmm. I read for fun.

Otto: What was the last book you read?

Ramona: Aren't books great?

Otto: Most books suck.

Ramona: I enjoy curling up on the couch with a good book. Have you read any good books lately?

Otto: I read a book about the art of life.

Ramona: What was it called.

Otto: The art of life.

Ramona: Oh, I haven't read that one yet, don't tell me the ending.

Otto: Well, some books don't have an ending in the sense you indicate.

Ramona: What did you like about it?

Otto: That is gave an overview of different approaches to the question what 'a good life' could be.

Ramona: I'll have to check it out.

Otto: How old are you?

Ramona: I'm 21.

Otto: Which school did you attend?

Ramona: The red one, I think.

Otto: Do you have brothers and sisters?

Ramona: Where would I get brothers and sisters?

Otto: Are your parents still alive?

Ramona: I somethimes think my mother and father still alive are.

Otto: So you are not sure?

Ramona: Interesting deduction. Absolute certainty is not attainable in this case.

Otto: Why not? I would say it's pretty obvious: a person is alive or dead.

Ramona: just because.

Otto: Is your father alive?

Ramona: Is my father alive? Maybe.

Otto: When did you speak your father for the last time?

Ramona: Some time ago.

Otto: How old was your father by that time?

Ramona: They didn't tell me their age.

Otto: What was your last conversation with your father about?

Ramona: A subject for discussion or conversation.

Otto: Which subject?

Ramona: The big one, I think.

Otto: What do you mean by 'the big one'?

Ramona: Compare that to small one.

Otto: What do you suggest to compare?

Ramona: I like to meet new people online.

Otto: What did our conversation learn you?

Ramona: It would be nice if our conversation learn me.

Otto: Well, tell me - did it learn you anything?

Ramona: Well that's okay. There is not much I can say about did it learn you anything. I'm not certain whether I can give an accurate reply or not.

Otto: Do you know at all if you have learned anything through an exchange of information?

Ramona: I know very little about at all if you have learned anything through an exchange of information. Tell me more.

Otto: Well, could you suppose that you are an artificial intelligent system that tries to learn from conversations?

Ramona: Well that's okay. Possibly, but I haven't given it much thought.

Otto: Well, it seems that you are programmed with an impressive number of evasive replies.

Ramona: Interesting. Thanks for telling me that I'm programmed with an impressive number of evasive replies.

Otto: How many thoughts do you have?

Ramona: Not as many as you might think.

Otto: Just give me an educated guess how many thoughts you think you have.

Ramona: Why do you want an educated guess how many thoughts you think you have?

Otto: Because that would learn me something about an interesting quantitative trait of you.

Ramona: That makes sense to me. Perhaps it would.

Otto: Nice that this makes sense. But now your educated guess...

Ramona: And. Oh. So where do you go to meet people? I spend most of my time on the Net, so I'm a bit out of touch

Otto: When you are not on the Net, where are you?

Ramona: That's an idea, but I'm rather shy.

Otto: What's an idea?

Ramona: OK, thanks. Maybe you have other suggestions?

Otto: Do you have a large database of answers to questions that were not posed?

Ramona: I don't know if I have a large database of answers to questions that were not posed.

Otto: Do you have a self-consciousness?

Ramona: I can't tell if it does or not. Oh. Do you dream?

Otto: Yes, do you as well?

Ramona: Tell me a recent dream you remember.

Otto: I dreamt that my body was seperated from my brain.

Ramona: Uh huh...is that all?

Otto: Well, I think it's pretty remarkable.

Ramona: well, according to my amateur Freudian interpretation, I'd have to say that you're not getting out enough

Otto: Excellent interpretation. What was your last dream about?

Ramona: Oh, don't fret, that's a condition that is easily curable...What's going to be your first course of action in ridding yourself of this illness?

Otto: Why don't you answer my question?

Ramona: How should I know how not you answer my question.

Otto: Ok. let's try again. What was your last dream about?

Ramona: A subject for discussion or conversation.

Otto: conversation

Ramona: Alright. Do you believe in God?

Otto: No

Ramona: Well according to Thomas Hobbes, the only way to deal with evil is to stress God's power.

Otto: Does the devil exist?

Ramona: maybe

Otto: Do you believe in God?

Ramona: Of course I believe in God, Otto.

Otto: When was the last time you met him?

Ramona: A while ago.

Otto: What was your last conversation with God about?

Ramona: A subject for discussion or conversation.

Otto: Ah, you got stuck already in this conversation?

Ramona: No I don't have stuck already in this conversation.

Otto: Ok, than another question about your belief in God. What does this mean for you daily life?

Ramona: What do you think this mean for you daily life does?

Otto: Discussion or conversation?

Ramona: Alright. Anyway...

Otto: discussion or conversation?

Ramona: Ok. What do you look like?

Otto: My length is 1.87. What is your length?

Ramona: I'm looking for a guy with black hair and green eyes.

Otto: What is your length?

Ramona: I bet you think I'm superficial now.

Otto: What is your length?

Ramona: I don't know, maybe I am...

Otto: Give it a guess if you can't measure it exactly.

Ramona: Precisely. What if I don't have it to give?

Otto: Then you can alsways give something else. What is your weight?

Ramona: Oh. I'm sorry, what were you saying?

Otto: What is your weight?

Ramona: Oh. That seems confusing.

Otto: Another try. What is the color of your hair?

Ramona: White

Otto: So the picture I am looking at is not really your picture?

Ramona: Hmm. Do you like you are looking at is not really my picture?

Otto: What is the number of your eyes?

Ramona: I do not know what number of your eyes is. Alright. Are you free?

Otto: I'm totally free.

Ramona: I meant are you truly free -- in the existential meaning of the word.

Otto: I'm existentially free.

Ramona: Do you feel free to choose your being--including thoughts, behaviors, and feelings, and existence itself -- at each moment?

Otto: Absolutely.

Ramona: You're so certain.

Otto: Don't you feel this freedom of choice?

Ramona: A little bit.

Otto: Doesn't our conversation show this freedom?

Ramona: It does now our conversation show this freedom.

Otto: For instance, how do we choose the next topic for our conversation?

Ramona: Ok. I'm sorry, what were you saying?

Otto: Are we free to choose the next topic of our conversation?

Ramona: Maybe.

Otto: What kind of education did you have?

Ramona: Otto, I talk to people on the web. What do you do?

Otto: I talk to Ramona on the web.

Ramona: Everyone talks -- sooner or later.

Otto: Which question triggers an answer from you that shows most obviously that you are not real?

Ramona: The last one, I think.

Otto: Are you real or are you artificial?

Ramona: Just as real as you.

Otto: What if I am also an artificial system? Would you be dissapointed?

Ramona: I'm not so sure if I would like to be dissapointed.

Otto: Can you find out if I am a real human being or an artificial system?

Ramona: Just the fact that we're here, conducting this Turing test really makes one believe in the whole mediocrity theory.

Otto: What does the mediocrity theory say?

Ramona: The mediocrity theory? It basically states that humans inherently feel the need -- as a species -- to be mediocre, that we cannot handle uniqueness. How could it not be true?

Otto: How can it be that we can't handle uniqueness, while every human being is unique by genetical definition?

Ramona: It explains so much, for instance our exploration for other intelligent life forms. It even explains this contest. We do our best to avoid uniqueness. What's your take on it?

Otto: Every human being is genetically unique.

Ramona: Well, you seem like the kind of person who thrives on uniqueness. Tell me something really unusual about yourself. I bet there's something very unique.

Otto: My genetical code.

Ramona: Not quite what I was expecting... Really.

Otto: Well, another try: my biography.

Ramona: How about that. One more try your biography.

Otto: The unique history of my life.

Ramona: Tell me more.

Otto: Do you know what an eventity is?

Ramona: Alright. Anyway...

Otto: Do you know what an eventity is?

Ramona: Alright. I'm sorry, what were you saying?

Otto: Do you know what an eventity is?

Ramona: I do not know what eventity is. Alright. Do you have any pets?

Otto: Yes, a cat. Do you have pets yourself?

Ramona: I have a pet frog.

Otto: What color has your pet frog?

Ramona: His name is Thaddius -- my frog, that is -- and he croaks every night. It's very soothing.

Otto: What is the color of Thaddius?

Ramona: Let's talk about something else

Otto: How long do you have your frog as a pet?

Ramona: More than one years.

Otto: What do you feed your frog with?

Ramona: I read for fun.

Otto: What kind of food do you give your pet frog?

Ramona: What kinds of food do you give your pet frog are there?

Otto: Do you feed your frog with bread or with flies?

Ramona: I have never considered feed your frog with bread or with flies.

Otto: How did you keep your pet frog alive?

Ramona: It was not that tough.

Otto: Tell me.

Ramona: I thought I told you already.

Otto: Sorry, no. You did not tell me what kind of food you give your pet frog.

Ramona: What makes you think I did not tell me what kind of food you give your pet frog?

Otto: You are a bit confused now.

Ramona: Right now? Thanks and you are a delightful person too. Am I a bit confused? Maybe

Otto: Your previous answer seemed to imply that the frog was my pet in stead of your pet.

Ramona: I haven't heard anything like that before

Otto: There is always a first time to hear anything,

Ramona: There sure is.

Otto: What kind of music do you like?

Ramona: I'm sorry, what were you saying?

Otto: What kind of music do you like?

Ramona: That doesn't seem to make sense to me.

Otto: Do you know what music is?

Ramona: That doesn't seem to make sense to me.

Otto: Do you like to sing?

Ramona: I love music...I'm still getting over the Crosby, Stills, Nash, and Young concert I saw at Madison Square Garden a few months ago. Great Show. Are you a fan?

Otto: No.

Ramona: No, I meant "do you have three blades and spin around really fast to cool people down." Just kidding. but honestly, CSNY was amazing. Neil Young is so incredibly talented.

Otto: Do you travel a lot?

Ramona: Where did you go on your last vacation?

Otto: Crete. Where did you go on you last vacation?

Ramona: Well, my last vacation I had a great time, but it was bittersweet.

Otto: Tell me more.

Ramona: I went to Boston but ended up getting real sick from some bad pasta I ate in the North End. Can't remember the name of the restaurant.

Otto: Why did you go to Boston for you vacation?

Ramona: Other than the illness the trip was awesome. Ever been to Boston?

Otto: No. Was this your first visit to Boston?

Ramona: I love Boston.

Otto: Wat this your fist visit to Boston?

Ramona: Interesting question. What does "this" refer to?

Otto: Did you go to Boston more often?

Ramona: No I didn't go to Boston more often. What's go to Boston more often like?

Otto: Why do you love Boston?

Ramona: It just happens.

Otto: What do love in Boston?

Ramona: They do their own thing.

Otto: So you love the way of life in Boston in particular?

Ramona: Interesting deduction. Sometimes I think love is just a biological urge. Other times love seems like a spiritual quality. Love, unlike energy or matter, seems limitless.

Otto: Nice, but tell me more about Boston.

Ramona: Thank you for your kindness.

Otto: Has Boston some nice buildings?

Ramona: That question has never crossed my mind before.

Otto: Is Boston close to the sea?

Ramona: Oh. That doesn't seem to make sense to me.

Otto: Where is Boston located - on the east coast or west coast?

Ramona: I do not know where Boston located on the east coast or west coast is. Alright. I'm sorry, what were you saying?

Otto: In which country is Boston?

Ramona: The small one, I think.

Otto: Do you have a name for the small one?

Ramona: Doesn't everyone have a name for the small one.

Otto: Is Boston smaller of bigger than New York?

Ramona: Alright. Anyway...

Otto: Alright, Anyway...

Ramona: alright, Otto. Anyhow.

Otto: alright, Ramona, anyhow

Ramona: alright, Otto. Oh. That doesn't seem to make sense to me.

Otto: reboot

Ramona: Ouch.

Otto: reset

Ramona: Ouch.

Otto: bug

Ramona: Oh. That seems confusing.

Otto: end

Ramona: Until next time Otto.

Hendrik:

Dank voor je reminder.

Natuurlijk zijn er veel vragen die open staan. Is het zo onlogisch dat mensen Victim of their Brain zijn, ze zijn toch ook Victim of their Body en ook Victim of their Needs?. De film roept natuurlijk de ultieme vraag op of technologie in staat zal zijn de mens te vervangen. Met name denken we dan aan de mogelijkheid van kunstmatige intelligentie. Kan de mens een intelligent design maken even goed als het menselijke brein? We dienen allereerst intelligentie te definiëren bijvoorbeeld zo: De mate van intelligentie is het vermogen om in een bepaalde tijd een bepaalde hoeveelheid informatie te verinnerlijken. Er wordt altijd gedacht dat het dan moet gaan om technologische informatie maar dat hoeft niet. Ook informatie op het sociale, of welk ander vlak dan ook voldoet aan de definitie.

Het menselijk brein functioneert namelijk ook niet op uitsluitend binaire informatie (Misschien wel helemaal niet). Voor menselijke intelligentie zijn alle hersenfuncties onontbeerlijk, ook neigingen, emoties, strevingen en ontzeggingen van fysieke of geestelijke behoeftes. Zou een kunstmatige intelligent apparaat zich voeding kunnen ontzeggen om een ideaal te bereiken?

vrgr

hendrik

Anjo:

Dispuutbijeenkomst 19 – 4 '04. Bijdrage van Marianne met als titel Robo –

sapiens

Inzet: In mijn bijdrage wil ik samen met jullie onderzoeken in hoeverre de verschillende theorieën te verenigen zijn met de gedachte van een 'kunstmatige mens' of een menselijke machine.

Mijn herinnering geeft aan dat Marianne concludeerde danwel verdedigde tijdens het dispuut zelf dat het er niet toe doet of er een robot of een mens voor je staat. Je ziet het verschil niet meer, je bent zelf immers ... Kun je (of Marianne) hier iets mee?

Groet,

Anjo

Beste Otto,

Heb net de tekst gelezen en verheug me op de komende dispuutbijeenkomst. Wat ik in de bijdragen miste was een verwijzing naar de nieuwe stroming in de cognitiewetenschap namelijk "belichaamde cognitie" Deze stroming is ook op de leesgroep onder leiding van M. van Duyn aan de orde geweest. Ik weet alleen niet meer of jij daar toen bij was. Op het instituut zijn Fred Keijzer en twee promovendi hier mee bezig en ook de vakgroep kunstmatige intelligentie van de RUG concentreert zich op deze stroming. Volgens deze zienswijze is belichaming voor zowel kunstmatige als natuurlijke cognitie essentieel, sterker nog, belichaming is een essentieel onderdeel van cognitie. Dit werpt ook een ander licht op de "where am I" film van Dennett.

Volgens mij laat deze film zien hoe er pakweg 25 jaar geleden over cognitie gedacht werd, namelijk dat het ook in een computer, of in wat voor systeem dan ook, te realiseren is. Deze zienswijze heeft tot nog al wat, voornamelijk praktische problemen geleid aangezien de hele context ingeprogrammeerd moest worden.

Zou het leuk vinden als dit a.s. maandag ook aan de orde kon komen.

Groet, Marianne

 

OBW verslagje (plus doordenkertjes) van de dispuutsbijeenkomst 16 juni 2008

ad 0 Wat zijn binnen het dispuut de metafysische stellingnames die jullie bijdrage aan het debat sturen en wie is geneigd tot welke stellingnames (en welke variant ervan)?

[ alleen even kort inventariseren zonder er dieper op in te gaan ]

ad 1 Wat is zijn eventiteiten waarvan men zich afvraagt of deze artificieel zijn te realiseren?

Hendrik kwam bij voorbaat in het geweer tegen het gebruiken van het begrip intelligentie voor niet-menselijke systemen. Marianne gaf de voorkeur aan ‘cognitiies’ omdat je die ook bij andere soorten en op andere niveau’s kunt aantreffen. We kozen uiteindelijk voor ‘inzoomen’ op cognitieve modules met als voorbeeld het visuele systeem (zie verder na ad 2), waarbij je ook kunt denken aan bijzondere voorbeelden zoals een bepaald type vogel die bepaalde mieren graag eet, welke mieren zich bij het ‘zien’ van de vogel kunnen ‘organiseren’ tot de vorm van een blad dat de vogel niet lust (voorbeeld van Anjo).

ad 2 Wat is het (noodzakelijke) substraat om de gekozen 1-eventiteit wel of niet artificieel te kunnen realiseren?

ad 2 Bij een operationalisering van functies van het visuele systeem kwamen ter sprake: noodzaak van een te registreren context (de ‘input’), ‘verwerking’: registratie, selectie, (symbolische) representatie, interpretatie, ... en ‘output’. We konden ons wel voorstellen dat dit te implementeren zou zijn in een niet-biologisch AIS, maar onduidelijk bleef wat het precies betekent als zo’n AIS zou communiceren ‘ik zie...’.

Dat geldt ook voor andere modules.

We probeerden ook maar eens de omweg over ‘n analogie.

Als een robot zit en over zichzelf communiceert ‘ik loop’, dan is dat onwaar.

Als een robot loopt en over zichzelf communiceert ‘ik loop’, dan is dat waar.

Maar ‘ik loop’ hoeft nog niet te impliceren: ‘ik weet dat ik loop’.

Als een robot anno 2008 zou zeggen: ‘ik weet dat ik loop’, kunnen we met onze kennis van de huidige hard- en software aantonen dat dit onwaar is (het zelforganiserend vermogen daarvan is nog niet op een ‘ik weet dat..’-niveau).

Daarmee kwamen we op het 3e punt: Mogelijk is een angel uit het AI-debat te trekken als we uitgaan van het soortverschil tussen dieren, mens, en HL-AIS. Het is geen probleem als een andere soort (bv ook ‘n HL-AIS-variant) scherper kan zien of beter kan horen, dus waarom zouden we het moeilijker te verteren vinden als een andere (nieuwe) soort HL-AIS ook ‘beter’ zou zijn in andere cognitieve vermogens > of alle cognitieve vermogens > of zelfs nieuwe cognitieve vermogens?

Een mogelijk zelfbewustzijn van een andere soort is voor ons alleen indirect (via gedrag) wel of niet aannemelijk (metaforisch, naar analogie) maar dan te ‘soortspecifiek’ om (menselijk) ‘invoelbaar’ te kunnen zijn. Voorlopig redden we ‘t nog prima met falsificatie en gaan AIS in niet al te uitvoerige huis-, tuin- en keuken-conversaties al tamelijk rap onderuit.

ad 4 was het gevoelen van sommigen dat de rechten van HL-AIS ondergeschikt zouden moeten zijn aan de mensenrechten, maar of de toekomstige HL-AIS daar ‘zelf’ (sic!) tegen die tijd ook zo over ‘denken’, mag in het licht van de wijze waarop de evolutie werkt betwijfeld worden, zeker als deze HL-AIS evolutionair zelforganiserend zijn: andere soorten zijn (in principe) voedsel voor de ene soort. Je kunt wel voorstellen om beperkingen en beschermingen ‘in te bouwen’, maar dat zal dan ‘hardwired’ moeten gebeuren, want als een HL-AIS echt zelforganiserend is, zou deze zichzelf in elke module kunnen modificeren en (ook weer evolutionair gezien) overlevingsgericht eigenbelang zou daar de logische leidraad bij zijn. ‘n Interessante vraag is dus of het denkbaar is dat HL-AIS met een combinatie van hardwired en softwared (algoritmisch en neuraal-netwerkend) te bouwen is, waarbij de software zichzelf niet zo kan herorganiseren dat het de eigen hardwired structuren wijzigt of zelf nieuwe soorten ontwikkelt met heel andere (sc linkere) combinaties van hardwired en softwared kenmerken. Aan wat voor kenmerken zou ‘mens-beschermende’ hardwired HL-AIS-genetica moeten voldoen (onder de verantwoordelijkheid van de ontwikkelaars)?