Das altbekannte Klischee ist, dass Männer generell auftreten wie ein Haufen präevolutionärer Menschenaffen, die gerade die Wunder des Geschlechtsverkehrs für sich entdeckt haben, außer, wenn sie anfangen, sich kultiviert zu betrinken. Denn genau dann blühen Männer auf, führen tiefgreifende Gespräche über Philosophie, Politik und Wissenschaft, und inspirieren sich zu großen Taten. Zentrales Problem dieser Inspiration ist es natürlich, sie bis in den nüchternen Zustand zu kultivieren und am Leben zu erhalten…

Mir ging es letzte Woche auf einer Geburtstagsparty genau so. Während meine Freundin gerade dabei war, die fussballclubeigene Theke zu einer wild umtanzten Party-Bar umzufunktionieren, saß ich am anderen Ende des Raumes bei einem interessanten Gespräch über künstliche Intelligenz, Lernalgorithmen und die Wunder der Geburt. Ich will hier ein bisschen Berichten, Philosophieren und Herumspinnen, werde aber vermutlich weder eine faktisch vollständige, gut recherchierte Erörterung, noch ein befriedigendes Ergebnis abliefern können. Aber einen Einblick.

Und auch das kann schon nett sein.

Eine recht simple Einstiegsfrage dient mir als Startpunkt:

Können Maschinen intelligent sein?

Eine Einführung in Computerintelligenz

Computerintelligenz > Babyintelligenz?

Ja, ich stelle den Computer durch ein Zahnrad dar. Ja, es wird kaum Zahnräder in Computern geben. Verklagt mich.

Künstliche Intelligenz ist ein schwieriges Thema. Es gibt einfach zu viele offene Fragen, zu viele Grauzonen und schwammige Definitionen. Kann man von KI nur sprechen, wenn sie irgendeine agierende Form, wie in einem Videospiel, oder als nervige Büroklammer in Office-Produkten annimmt? Oder sind persönlich vorsortierte Google-Ergebnisse schon künstliche Intelligenz? Die Adaption unserer Smartphone-Tastaturen an unser Schreibverhalten? Nicht umsonst muss das Gerät erst unser Vokabular “lernen”, sich merken, welche Worte wir oft in Kombination verwenden. Was nehmen wir Menschen eigentlich als Intelligenz wahr?

In der Psychologie ist das Thema auch nicht wirklich leichter greifbar. Intelligenz wird hart diskutiert, und man kann sich nur sehr schwer einigen, was sie jetzt eigentlich aus macht. Manche sagen, sie sei angeboren, andere sagen, dass sie sich entwickelt, und anerzogen wird. Ein Punkt ist aber häufig vertreten: Dass Intelligenz und Lernen sich gegenseitig beeinflussen.

Computer können offensichtlich auch lernen, und zwar die Dinge, die ihr Entwickler sie lernen lassen will. Programme sind im Wesentlichen nur Abfolgen von Zustandsübergängen, die determiniert und vorherbestimmt sind. Selbst wenn man (eine Annäherung an) Zufall einbaut, und Zustände nicht mehr als konkrete Werte, sondern als Position auf einer Skala beschreibt, ändert sich die grundlegende Vorgehensweise nicht: Man sagt einem Programm, was es tun soll, sobald bestimmte Werte eine bestimmte Form annehmen.

Lernen ist in diesem Zusammenhang das Erkennen neuer Zustände, Zusammenhänge und Muster. Danach kann das Programm auf neue Situationen reagieren, oder verhält sich in bekannten anders als vorher. Es kann Dinge, die es vorher nicht konnte.

Google lernt zum Beispiel im Laufe der Zeit unsere Lieblingssuchbegriffe. Ändert das etwas an der Intelligenz von Google? Irgendwie nicht. Gelernt wurde trotzdem.

Ändert es etwas daran, wie Google funktioniert? Eigentlich auch nicht. Es bleibt ein Programm, das auf Zustände reagiert.

Selbstständige Datenverarbeitung ist eigentlich nichts Anderes als Mustererkennung. Dementsprechend ist Lernen das Erkennen neuer Muster und neuer Reaktionen. Und auch Lernalgorithmen, die einem Programm erlauben, sich selbst neue Dinge beizubringen, sind selbst Schablonen, die angeben, was aus welchen Arten von Mustern überhaupt gelernt werden kann.

Ein Beispiel dazu sind Gesichtserkennungsalgorithmen. Diese können, wenn man ihnen mehr Übungsmaterial, also mehr Beispielgesichter, gibt, ihre Antworten verbessern und erweitern. Dabei können sie aber nichts anderes verarbeiten, als Gesichtserkennung, sie sind auf diese Aufgabe programmiert.

Theoretisch kann Lernen aber automatisiert und aus der Entwicklerhand gegeben werden. Im Kleinen tut es das im Beispiel, aber es ist beliebig erweiterbar. Man kombiniere Gesichtserkennung mit Kartoffelerkennung. Schon kann das Programm zwei Dinge auseinanderhalten. Egal, wie weit man aber geht, Lernen und Agieren bleibt immer das Gleiche: der Umgang mit Zuständen, Mustern und Aktionen.

Gibt es Gemeinsamkeiten?

Intelligenz ist im Wesentlichen ein Zustand für Menschen. Künstliche Intelligenz ist ein Zustand, in dem Maschinen wie Menschen denken sollen. Wenn Maschinenintelligenz, wie oben beschrieben, durch Mustererkennung funktioniert, könnte es dann sein, dass auch wir nicht anders arbeiten?

Immerhin nehmen auch wir mit verschiedenen Sensoren unsere Umgebung wahr, identifizieren relevante Aspekte, und reagieren entsprechend. Wir agieren von einem bestimmten Zustand aus durch ein bestimmtes Verhalten. Wenn wir aus einer Situation lernen, dann lernen wir, in künftigen, ähnlichen Situationen ein anderes Verhalten zu zeigen. Und wenn eine solche Situation kommt, und wir anders reagieren, dann haben wir gerade ein Muster erkannt, und uns angepasst.

Im Endeffekt kann das ziemlich viel Verhalten und auch Selbstverbesserung erklären: Ein Muster von Ereignissen zeichnet sich ab, und der Mensch erkennt, interpretiert, und adaptiert. Aus gewonnenen Erfahrungen kann künftig eine bessere Adaption erfolgen, und man hat etwas gelernt.

Unsere Intelligenz befindet sich natürlich auf einem ganz anderen Level: Computer kämpfen noch mit vielen Problemen, haben aber auch Stärken, die wir nicht haben. Wenn die Aufgabe ist, einen Liebesbrief zu schreiben, würde ich auf den durchschnittlichen Menschen setzen. Bei Primfaktorzerlegungen haben viele angehörige unserer Spezies aber vermutlich schon zu Beginn dieses Satzes abgeschaltet, und hoffen auf einfachere Wörter im restlichen Text.

Menschliche Intelligenz funktioniert – theoretisch – wie hochkomplexe, hochspezialisierte Computerintelligenz! Und das bedeutet, dass im Laufe der Zeit ein Computer wohl so denken können wird, wie wir denken können. Oder?

Ein Widerspruch

Eine Welle der Gegenargumente bietet sich an. Zum Beispiel könnte man sagen, dass ein Mensch bereits eine Grundintelligenz hat, auf der er aufbaut. Dass er Ziele, Hoffnungen und Wünsche hat. Dass keine Maschine je so komplex denken kann, wie ein Mensch. Dass Emotionen fehlen. Ambitionen. Unzuverlässigkeit. Fehler. Freier Wille. Spontanität.

Dass all das genau das ist, was den Menschen so unvorhersehbar macht, und was unsere Existenz so besonders macht: Man weiß nie, welches Ergebnis

Man kann auch viel gegengegenargumentieren. Zum Beispiel sind Emotionen in vielen Modellen auch nur eine Kombination aus subjektiver Wertung und der Stärke dieser Wertung, was sich auch als Zahl ausdrücken lässt. Und die könnte ein Computer wieder verarbeiten. Querverlinkung zu virtuellen Menschen!

Viel subtiler als ein Gegenargument ist aber der Ansatz, einfach eine banale, kleine Frage zu stellen:

Der Moment, in dem man nicht mehr weiter weiß.

Ist ein Baby intelligent?

Man lasse das einen Moment sacken.

Klar ist ein Baby intelligent! Es ist ein Mensch! Es muss nur noch gezeigt bekommen, was es zu lernen hat, und kann dieses Verhalten in Zukunft selbst – oh.

Natürlich sind Babys nicht intelligent! Sie liegen nur rum, und müssen noch an der Hand zu den Dingen geführt werden, die sie lernen müssen, um zukünftig selbst in der Lage zu sein, sich weitere Sachen selbst anzueignen. Babys sind Potentiale, die eine Aktivierungsenergie benötigen!

Wie man es dreht und wendet: Irgendwie ähnelt die Entwicklung der Intelligenz eines Kindes der Entwicklung von künstlicher Intelligenz. Aus kleinen Schritten und spezifischen Lernaufgaben werden immer größere Muster.

Und das ist etwas Schönes! Denn es bedeutet, dass die Informatik der Psychologie und den Neurowissenschaften helfen kann, menschliches Denken zu verstehen! Wer jetzt von der Idee, dass Computer eine Art der menschlichen Intelligenz erreichen könnten, abgeschreckt ist, der darf das sein. Aber in den Neuro– und Kognitionswissenschaften wird unser Gehirn schon lange als sehr sehr leistungsfähige Maschine betrachtet, die bestimmte Inputs verarbeitet.

Aber gleichzeitig sind Computer noch so weit von uns entfernt. Es gibt viele Dinge, die sie lernen können, aber keine Maschine kann alles lernen. Programme sind hoch spezialisiert. Wir verstehen so wenig von tatsächlichen kognitiven Vorgängen, und wie sie bei Computern funktionieren könnten. Die simpel wirkende Kategorisierung von Tischen und Stühlen ist zum Beispiel schon ein großes Problem für Computer, aber einige Programme können es lösen. Dafür können diese unsere Suchergebnisse nicht sortieren. Künstliche Intelligenz ist ein hoch spezialisierter, komplizierter Flickenteppich. Nichts, was aktuell an uns heranreichen würde, keine Hardware der Welt kann alle Kleinigkeiten, die wir lernen, verarbeiten.

Aber es könnte eines Tages soweit sein.

Was dann noch fehlt, wenn die Bearbeitungskapazität, die technischen Möglichkeiten ausgeschöpft sind, sind die Dinge, die unser Leben als Menschen so besonders machen. Die vielen kleinen Ungereimtheiten, die subtilen Effekte, die wir nicht erklären können. Wir treffen Menschen, und haben direkt ein Gefühl bei ihnen. Wen hassen wir, wen lieben wir? Was sorgt dafür, dass ein Date gut läuft? Was sorgt für unsere spontanen, unvorhergesehenen Entscheidungen? Und viel wichtiger: Ist das Intelligenz, oder ist Intelligenz nur die Verarbeitung purer Berechenbarkeit? Und wie funktioniert Kreativität? Kann man sie berechnen?

Solange wir all diese Fragen nicht einmal für einen Menschen beantworten können, können wir sie auch nicht programmieren. Programmieren kann man nur, was man versteht. (Ja, ich weiß. Man kann modellieren und simulieren, und daraus Erkenntnisse gewinnen, ihr Bayes-Nerds. Aber das ist hier nicht das Thema!)

Und bis dahin bleiben Computer weit hinter uns zurück, was die Menschlichkeit angeht. Aber intelligenter sind sie vielleicht jetzt schon. Es kommt einfach nur auf den Test an.


Was denkst du? Sind Computer intelligent? Können sie es je werden, und wenn ja, überholen sie uns? Gibt es Dinge, die sie niemals lernen können?

6 comments on “Sind Computer intelligenter als Babys?

  • Dazu fällt mir noch die Anmerkung eines Professors zu einem meiner Paper in einem Seminar: der Begriff „Artificial Intelligence“ ist mittlerweile in der Informatikwissenschaft eher verpönt, weil er doch zu viel einschließt, was (derzeit?) bei weitem noch nicht möglich ist. Und womöglich auch weil der Begriff schon zu häufig von apokalyptischen Szenarien in Hollywood missbraucht wurde. Deutlich gängiger und gebräuchlicher sind daher „Machine Learning“ oder „Autonomous Systems“.

    • Ich könnte mich jetzt damit rausreden, dass ich hier aber für den Normalverbraucher schreibe, und die zugänglichere Begrifflichkeit gewählt habe, das glaubt mir eh keiner, also kann ich auch bei der Wahrheit bleiben:
      Wusste ich so nicht, macht aber durchaus Sinn. Immerhin ist ja, wie gesagt, nicht Mal wirklich klar, was Intelligenz bei UNS aus macht. Bei Computern kann man sie einfach besser operationalisieren und messen, und dann so tun, als könnte man genau sagen, dass sie nicht intelligent sind. Die Abgrenzung macht damit durchaus Sinn, und lässt die Sachen einander ähnlich, aber klar unterschiedlich sein. Voll gut!

  • 1. Gedanke: Das Wort „natürlich“

    Der Unterschied zwischen „natürlicher Intelligenz“ und „künstlicher Intelligenz“ ist ja das „natürlich“ vs „künstlich“.
    Das wir halbwegs „Intelligente Systeme“ erschaffen können, oder das es sie zumindest gibt, ist ja klar: Das wären dann Babys.

    Es gibt manche Leute, die sagen, dass man keinen Unterschied zwischen natürlich und künstlich machen sollte. Was heißt überhaupt „natürlich“? Wenn ein Mensch geboren wird ist das natürlich. Wenn er ein Haus baut, nennt man das künstlich oder „Kultur“. Wenn ein Biber ein Haus baut, ist das dann natürlich, oder nicht?
    Antibiotikum gilt nicht als natürliches Medikament. Es wird auch tatsächlich synthetisch hergestellt, aber es kann theoretisch auch natürlich hergestellt werden.

    Andererseits schmeckt Erdbeerjoghurt mit echten Erdbeeren vermutlich tatsächlich besser und ist gesünder als welcher mit künstlichem Aroma. Das Konzept „natürlich“ ist also nicht per se nutzlos, aber man muss vorsichtig damit umgehen.

    Wenn die Leute „künstliche Intelligenz“ hören, dann denken sie vielleicht an künstlichen Erdbeerjoghurt oder zumindest denken sie an Zahnräder aus hartem, kalten Metall, wo man sich die Finger zerquetschen kann. Davor haben die Leute vielleicht Angst und denken dann „Was nicht wahr sein darf, kann nicht wahr sein, ergo: Künstliche Intelligenz existiert nicht.“

    Tatsächlich kann man jeden heutigen Computer auch aus Zahnrädern bauen – das Bild ist also gar nicht falsch – nur würde er viel langsamer laufen und viel größer sein. Genauso kann man Computer auch aus Wasserschläuchen bauen oder eben auch aus organischem Material. Man muss nur einen kleinen Baustein namens NAND-Gate bauen können. Aber die Frage ist ja nicht, ob es natürliche Rechner gibt, sondern künstliche Intelligenz.

    2. Gedanke: Das Schiff des Theseus

    Vielleicht kennst du die Geschichte vom Schiff des Theseus: Bei einem Schiff werden nach und nach Planken ausgetauscht. Nach einer Zeit sind alle Teile neu. Dann baut jemand aus den alten Teilen noch wieder ein Schiff zusammen. Welches ist jetzt tatsächlich Theseus ursprüngliches Schiff?

    Es gibt ein ähnliches Gedankenexperiment, das mit künstlicher Intelligenz zu tun hat. Angenommen man versteht vollständig was die elementaren Komponenten des Gehirns tun, z.B. Neuronen (Ich glaube man ist noch nicht so weit). Jetzt ersetzt man Stück für Stück ein oder vielleicht fünf Neuronen eines Freiwilligen durch einen kleinen elektronischen Schaltkreis.

    Was würde passieren, wenn das Experiment beginnt und wenn 50% bzw 100% der Gehirnmasse ersetzt sind?
    Würde der Mensch aufhören intelligent zu sein? Würde er sein Bewusstsein verlieren aber nach außen hin intelligent wirken? Hätte man eine künstliche Intelligenz geschaffen, oder eine natürliche Intelligenz in Silizium verwandelt?

    Das ist kein Argument für oder gegen künstliche Intelligenz, aber ein interessanter Gedanke.

    3. Gedanke: Praktische Konsequenzen

    Wann hätte es eigentlich praktische Konsequenzen, ob es natürliche Intelligenz gibt? Ich glaube, wenn man diese Frage untersucht, findet man auch Denkanstöße für die Frage, ob es sie überhaupt gibt.

    Eine Frage, die bald jemand beantworten muss ist: Wer trägt die Verantwortung, wenn ein selbstfahrendes Auto einen Unfall macht und jemand dabei zu schaden kommt/stirbt?
    Muss der Besitzer eine Strafe zahlen, der Programmierer, die Herstellerfirma? Oder muss vielleicht sogar das Auto selbst bestraft werden, wenn man es schon als „intelligent“ bezeichnet?
    Wahrscheinlich würden in diesem Fall die wenigsten Leute sagen, dass das Auto tatsächlich intelligent im menschlichen Sinne ist.

    Anders sieht die Sache vielleicht aus, wenn irgendwann statt Autofahrern Schauspieler durch Computerprogramme ersetzt werden. Dieses Szenario kenne ich von der Fernsehsendung Elektrischer Reporter: https://youtu.be/BzXE008N3c4?t=8m (Minute 8 bis 14. Ich empfehle das jedem, der sich für Philosphie und künstliche Intelligenz interessiert! Die neuen Folgen Elektrischer Reporter haben leider nicht mehr die Rubrik Übermorgen.tv)

    Meine These: Menschen (auch ich) werden künstliche Wesen genau dann als gleichwertig anerkennen, wenn sie hinreichend wie Menschen aussehen und sich so verhalten, komplett unabhängig von ihren sonstigen Fähigkeiten.
    Das ist nicht gut oder schlecht, das ist einfach so. Menschen verlieben sich in ein Kuscheltier mit Gesicht, aber nicht in einem hyperintelligenten grauen Kasten.

    • Wow, bei dem Kommentar hätte ich auch gleich nichts schreiben können 😀

      Zu. Viele. Gedanken. In. Kopf.
      Muss. Strukturieren.

      Zu 1.
      Die Sache mit dem Biber ist ein spannender Punkt: An welchem Punkt hört etwas auf, „natürlich“ zu sein, obwohl der Mensch (ein natürliches Lebewesen) es aus natürlichen Zutaten (dem ganzen Shit, den man gerade benutzt) erschaffen hat?
      Die einzige Antwort, die mir gerade einfällt, ist, dass „Natürlichkeit“ in unserer Wahrnehmung nicht transitiv funktioniert. Wir erstellen etwas, dieses Etwas erstellt etwas Anderes, das ist unnatürlich.
      Andererseits wurden die ersten Dampfmaschinen per Hand gebaut, und die sind in meiner Intuition auch nicht „natürlich“.
      Was wohl passt ist der französische Kommentar weiter oben. Auch hier wird ein Wort benutzt, von dem man nicht so ganz genau weiß, was es eigentlich sagen soll. Und vielleicht ist es einfach nicht mehr angemessen, und eine hier unpassende Anschauungsweise. Vielleicht braucht man ein ähnliches Wort, das in seiner Belegung versucht, die Konzepte besser voneinander abzugrenzen. „Natörlich“ oder so! 😉

      Zu 2.
      Theseus‘ Schiff ist ein alter Hut 😉
      Aber in diesem Kontext habe ich noch nie drüber nachgedacht. Auf der IK habe ich in einem Vortrag gehört, dass man wohl einer Maus mal ein bisschen Hirn weggeschnitten, und dann eine kleine Platine eingebaut hat. Erst konnte sie nicht mehr laufen, dann aber doch!
      Tatsächlich ist man bei Weitem nicht so weit, das Gehirn auf einem irgendwie hinreichenden Level zu verstehen – zumindest das menschliche. Es gibt viele Theorien, und einige Zentren sind besser verstanden als andere, aber die aktuell beste Methode ist fMRI, und das gibt eigentlich nur korrelative Aufschlüsse darüber, welche Hirnregionen gerade etwas machen. Es kann keine einzelnen Synapsen oder Neuronengruppen untersuchen, sondern nur Orte im Gehirn bestimmen, die beteiligt sind. (
      Beispiel A 😀)
      Mein Gedanke dazu ist, dass es makelloser Austausch einen Menschen nicht sein Bewusstsein kosten würde. Chemikalien ist es egal, ob sie durch künstliche Röhrchen oder durch natörliche fließen. Wenn die Verkabelung insgesamt soweit verstanden wäre, dass sie verlustfrei übersetzt werden kann, bleibt der Mensch Mensch.
      (Ich bin gegen den Shadowrun-Ansatz, dass einen zu viel Augmentierung seine Essenz kostet.)

      Zu 3.
      Wichtige Frage. Mein Gefühl sagt mir, dass entweder die Firma Schuld sein sollte, oder der Fahrer. (Falls das „Das Auto fährt, aber du passt trotzdem auf!“-Konzept sich durch setzt.) Aber darum geht es hier ja nicht.
      Mich erinnert die Schauspielersache auch ans Uncanny Valley, über das ich dringend schreiben sollte: Irgendwo auf der Skala von Teddybär zu Mensch gibt es nämlich einen riesigen Einbruch, der dafür sorgt, dass uns Gestalten extrem beunruhigen. Sprichwort: gruselige Puppen aus dem 19. Jahrhundert. Das könnte die Schauspielersache erschweren.

      Ich selbst bin mir wirklich nicht sicher, ob mir die Optik gestatten würde, einen Computer als gleichwertig anzuerkennen, oder ob es vorher schon soweit ist. Dafür habe ich in Spielen zu viele Androiden getroffen, und habe zu viele Befürchtungen bezüglich des Uncanny Valleys.
      Ich denke, dass ein Computer dann als intelligent gilt, wenn er mich nach außen hin glauben lassen kann, er sei es. Wenn man kein Informatiker ist, sind Computer vollkommene BlackBoxes: Keine Ahnung, was da drin vorgeht. Wenn außen also ankommt, dass der Computer intelligent wirkt, dann ist er soweit intelligent. Das ist ein behavioristischer Ansatz: Die Computation ist egal, was außen ist, zählt. Dem würde ich mich psychologisch nicht anschließen, es liegen ganz schöne Geheimnisse hinter unseren Köpfen, aber in Sachen Intelligenzbestimmung ist das alles, was ich brauche: die Maschine ist so lange intelligent, bis ich das Gegenteil bemerke. So ist es mit Topmodel-Kandidatinnen ja auch, nur dass die mich sehr schnell vom Gegenteil überzeugen können 😉

      Es gibt dazu eine Geschichte, ähnlich wie mit Theseus‘ Schiff. „Der chinesische Raum.“ Ich kenne sie gerade nicht 1 zu 1, aber zusammengefasst geht es um Folgendes: Ein Mann sitzt in einem Raum, und seine Aufgabe ist es, sich ankommende Zeichen anzusehen, und entsprechend bestimmte Zeichen auf einen Zettel zu malen, und aus einem Schlitz in der Tür zu schieben. Plot-Twist: Die Zeichen sind chinesisch, der Mann versteht aber keines davon. Seine Aufgabe ist es nur, auf bestimmte Zeichenfolgen mit bestimmten anderen zu antworten.
      Spricht der Mann chinesisch? Nein.
      Wirkt es von außen so, als ob? Ja. (Wenn er halbwegs schnell arbeiten kann, und sein Katalog von Zeichensätzen vollständig ist.)
      Natürlich fehlt in der Geschichte noch Kontext, aber im Endeffekt ist es genau das: Wenn ich nicht weiß, was innen vor sich geht, zählt nur das, was ich von außen sehe. Und das kann künstliche Intelligenz sein.

      • Ich habe gesehen, dass du auch schon was zu virtuellen Menschen geschrieben hast: http://powlspsychoplog.de/2015/04/was-virtuelle-menschen-so-bringen/

        Ich hätte nicht gedacht, dass wir schon so nah daran sind virtuelle Menschen in psychologischen Experimenten zu verwenden.
        Hast du gemeint, dass man Max, der virtuellen Mensch, Selbstmordwünsche einprogrammieren könnte? Das wird natürlich ethisch genauso fragwürdig, wie Experimente an echten Menschen, wenn die virtuellen Menschen den echten zu ähnlich werden, wenn sie anfangen zu schreien, zu weinen, oder für Gleichberechtigung zu demonstrieren.

        Es gab ja bestimmt viele kleine Kinder, die dachten Furbies wären echte Lebewesen. Obwohl, ich weiß nicht genau, vielleicht können das Kinder doch auf einem bestimmten Level auseinanderhalten. Aber so in etwa könnte man um das Uncanny Valley herumkommen.

        So. Jetzt habe ich aber wirklich genug geschrieben.

        • Gott ist das schon wieder lange her…
          Ich kann mich nicht erinnern, über Selbstmordwünsche geschrieben zu haben. Damit das geht müssten die Programme aber noch fortgeschrittener sein, aktuell sind auch virtuelle Menschen nur Projektionen von internen Berechnungen, und mir fällt akut keine angemessene Modellierung eines Selbstmordwunsches ein. Die Idee ist aber reichlich bedenklich. Auch da lässt meine Intuition mich im Stich – irgendwie wäre der Wunsch ja nur künstlich, irgendwie aber nicht.
          Vielleicht kann man so hypothetische Fragen erst klären, wenn man etwas Handfesteres in der Hand hat…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.