Liebesbeziehung/tiefgreifende Freundschaft mit einem Androiden

  • Eine ernstgemeinte Frage nach eurer Meinung:


    Würdet ihr aktuell eine Liebesbeziehung/tiefgreifende Freundschaft mit hochentwickelten Androiden eingehen, angenommen, sie würden existieren?

    • Warum, warum nicht? Was stört euch an dem Gedanken, was ist interessant?
    • Unter welchen Bedingungen würdet ihr sie eingehen, was müssten Androiden mitbringen?
    • Würde es einen Unterschied machen, wenn ihr sie kaufen müsstet? Wie sieht es mit Second-Hand-Androiden aus? Was, wenn sie als Staatsbürger*innen frei existieren könnten?


    Begriff: Ein Android ist ein humanoider Roboter oder ein anderes künstliches Wesen, das oft aus einem fleischähnlichen Material besteht. Von mir aus können Androiden für diese Frage von hoher emotionaler/analytischer/kreativer etc. Intelligenz sein.

  • Incubus

    Hat den Titel des Themas von „Liebesbeziehung mit einem Androiden“ zu „Liebesbeziehung/tiefgreifende Freundschaft mit einem Androiden“ geändert.
  • Hey Incubus,


    ich könnte mir eine Freundschaft oder auch Liebesbeziehung unter folgenden Umständen vorstellen, wenn:


    - der Android nicht mein Eigentum ist

    (wenn ich ihn kaufe ist es ein Gegenstand den ich besitze und ich könnte unter solchen Umständen dem Androiden nicht auf Augenhöhe begegnen. Ausnahme: der Android ist nicht mein Freund sondern eine Arbeitskraft die mir meinen Alltag erleichtert)


    - er somit auch nicht meinen Anweisungen unterstellt ist


    - der Android muss ein Ego besitzen, also ein Selbstbewusstsein und mit mir wie ein Mensch ständig in Interaktion treten können

    (also ein Android der kaum vom Menschen zu unterschieden ist wie z.B. bei Ghost in the Shell oder Blade Runner)


    - es muss immer die Möglichkeit geben in abschalten zu können (Selbstschutz)


    - es muss eine klare Gesetzgrundlage geben wie solch ein Android programmiert ist (Asimovschen Gesetze: Ein Roboter darf nicht töten usw.)


    Ich halte es trotzdem für extrem problematisch. Doch wenn ich mich zwischen Einsamkeit oder einem Androiden (bzw. seiner Gesellschaft) entscheiden könnte würde ich immer die 2. Option wählen.


    Um beurteilen zu können, ob es eine echte Freundschaft zwischen Mensch & Android geben kann, müsste man wissen wie genau der Android funktioniert/gebaut ist. Wenn der Android in der Lage ist Emotionen zu empfinden, dann würde ich die Beziehung auch als "echt" bezeichnen.

    Ein Roboter mit 0815 Programm der mir ständig dasselbe sagt (sowas gibt es ja jetzt schon, besonders in Japan) wäre keine Option für mich.


    das sind jetzt meine ersten Gedanken zu deiner Frage, wenn mir noch was einfällt ergänze ich es :)

  • Körperlich..? Noja... i´m a simple man; Obs nun wirklich erfüllend wäre möchte mal dahingestellt sein; Aber mein Gott - wenns der Hunger reintriebe; Zumindest nicht von vorne herein auszuschliessen :P :thief:


    Aber um mal doch zu versuchen etwas tiefer zu gehen. Ich denke, Menschen haben manchmal die Tendenz künstliche Intelligenz oder Androiden zu vermenschlichen. In der Science Fiction finde auch ich das sehr interessant, die Sache ist nur: mal genauer betrachtet dreht es sich bei solchen Gedankenspielen oft mehr um die Frage, was es denn eigentlich genau bedeutet, ein Mensch zu sein.

    Und für mich selbst betrachtet ist diese Angelegenheit schon knifflig genug...


    Nun aber den Fall mal angenommen es gäbe "echte" künstliche Intelligenz, (und echt setze ich in Gänsefüsschen, weil, ich hab oft das Gefühl was heute so alles als KI verkauft wird hat ne Menge Verpackung, geht im Kern genommen aber irgendwie auch nicht weit über Entweder Oder- Schleifen hinaus. Sollte eine künstliche Intelligenz tatsächlich mal die Aufgabe kriegen 10 durch 3 zu teilen, und nach der fünfhundertxten Stelle von sich aus zum Schluss kommen, dass ihr das zu dumm wird weils eh zu nichts führt, dann Hut ab!)


    Wenn es aber dazu käme: Warum sollte so eine Intelligenz der Menschlichen ähneln? Was würde sie denn mit den Menschen verbinden, ausser vielleicht Mathe? Worin wäre eine künstliche Intelligenz ähnlich dem, was man zum Beispiel Kindheit nennen würde? Freude, Zuneigung, Empathie, Abenteuerlust, Neugier, ebenso wie Wut, Kummer, Einsamkeit, Verlust, Schmerz und Tod.


    Und wir Menschen mögen ja sicher da und dort verdammt unterschiedlich ticken, muss weissgott auch nicht immer ein Nachteil sein, aber trotzdem: Für uns alle ist das obengenannte nicht nur ein Wort, sondern Begriff, und damit Teil dessen, was wir sind.


    Vielleicht wäre eine künstliche Intelligenz sogar auf ihre eigene Art Kind, aber ich denke das hätte nichts mit dem zu tun, was wir Menschen darunter verstehen. Ich denke, unsere Art und die einer künstlichen Intelligenz; Wir wären einander so fremd wie verschiedene Universen.


    Und, um damit auf die Ausgangsfrage zurückzukommen: Nein, für eine Beziehung darf etwas Spannung und Unterschiedlichkeit für mich bitte und gerne drin sein :3 Aber, irgendwo muss es letztendlich doch auch ein paar Gemeinsamkeiten geben...

    I see the lights of the village

    gleam through the rain and the mist

    and a feeling of sadness comes o´er me

    that my soul cannot resist

  • Ich glaube, ich könnte eine Beziehung mit einem Androiden führen, aber es wäre eine große Herausforderung und es müsste viel Vorarbeit im Kopf vorausgehen. Ob ich dazu schon jetzt bereit wäre, weiß ich nicht, aber grundsätzlich denke ich, dass ich das könnte.


    Aber einige der hier genannten Kriterien finde ich auch sehr wichtig:


    Wie von Fr. Hatake ausgeführt, denke ich auch, dass ein unabhängiges Ego das wichtigste Kriterium für mich ist. Aber: Ich denke nicht, dass ein "Ausschaltknopf" eine gute Sache wäre (obwohl ich mir das bei vielen Menschen häufig denke...), ebenso eine Programmierung nach bestimmten Regeln (z.B. Asimovs), obwohl das im Grunde nichts anderes ist als unser sozialer Code, nach dem wir programmiert sind, wenn man so will. Der Android sollte aber irgendwie die Möglichkeit zur freien Entscheidung besitzen...

  • Es ist für mich interessant, das du sagst (wenn ich richtig verstehe) dass du dir eine Beziehung mit einem Androiden vorstellen könntest, es aber herausfordernd wäre und geistige Vorarbeit benötigen würde. Worin würdest du Schwierigkeiten sehen? Worin vielleicht Gemeinsamkeiten?

    I see the lights of the village

    gleam through the rain and the mist

    and a feeling of sadness comes o´er me

    that my soul cannot resist

  • Eine tiefe Freundschaft kann ich mir problemlos vorstellen. Beziehung allein deswegen nicht, weil ich verheiratet bin :P Sonst vielleicht auch das.

    Voraussetzung ist natürlich, dass ich mit dem Wesen "normale" Konversationen führen kann (Stichwort Turing-Test).

    Die Sache mit "Besitzen" und "den Befehlen unterstellt sein" sehe ich nicht unbedingt als Punkte, die einer freundschaftlichen Beziehung im Wege stehen müssen. Ich kann ja auch mit meinem Chef, dessen "Befehlen" ich unterstellt bin, irgendwie freundschaftlich interagieren. Vermutlich habe ich da mehr freien Willen als ein Android, aber da stellt sich mir die Frage, was "freier Wille" überhaupt ist - für Mensch und Maschine. Ab wann hat man freien Willen?

    Um mal aus der "machine learning" Ecke zu sprechen: Solche Androiden/KIs wird man vermutlich nicht "vollständig durchprogrammieren", da gibt es ein initiales Set an Regeln und dann wird "trainiert", auf trainingsdaten. Und da kann man, finde ich, schon Vergleiche zur Kindererziehung ziehen (und damit einer KI sowas wie eine Kindheit zusprechen). Und sogesehen werden Kinder ja auch "programmiert"... Es gibt Regeln, die gelernt werden müssen, sie erfahren, wie ihre Umwelt auf ihr Verhalten reagiert und lassen das in ihr zukünftiges Verhalten einfließen usw...

    Auch wenn ein Unterschied darin besteht, woher Mensch und KI kommen, kann das Wesen sich ja dennoch ähneln. Und das wäre für mich, was zählt.

    Thou shalt not follow the NULL pointer, for chaos and madness await thee at its end.

    (aus: "The Ten Commandments for C Programmers" von Henry Spencer)

  • Mensch und Maschine könnten sich vielleicht ja wirklich in dem Einen oder Anderem ähneln, gewisse Logiken oder Naturgesetze wären wohl allgemein gültig.

    Allerdings, wäre eine KI, die darauf ausgerichtet ist, menschliche Verhaltensweisen zu erlernen und zu simulieren denn dann eigenständig in ihrem Wesen? Wenn nein, dann kann man genauso gut mit der Rolle eines Schauspielers befreundet sein. So tun als ob, das kann auch diese/jene.


    Echte KI... keine Ahnung, aber in vielen Dingen wäre sie den Menschen doch haushoch überlegen, zum Beispiel nur mal in dem Mass Informationen aufzunehmen, zu speichern und zu verarbeiten. Menschen verbringen Jahre damit, lesen, schreiben und rechnen zu lernen, da würde jede Maschinenintelligenz nur müde lächeln - mal angenommen, Müdigkeit wäre ihr überhaupt ein Begriff :D


    Von daher frage ich mich auch, ob sich denn die Frage nach Robotergesetzen denn überhaupt stellt; Echte, eigenständige Maschinenintelligenz, die wäre uns in meinen Augen so rasend schnell in so vielen Bereichen überlegen, dass sich jeder menschliche Einspruch erübrigt. Oder fragen Menschen denn etwa ihre Meerschweinchen, was sie dürfen oder nicht? :meeeeh:

    I see the lights of the village

    gleam through the rain and the mist

    and a feeling of sadness comes o´er me

    that my soul cannot resist

  • Allerdings, wäre eine KI, die darauf ausgerichtet ist, menschliche Verhaltensweisen zu erlernen und zu simulieren denn dann eigenständig in ihrem Wesen?

    Kann man das entscheiden? Das ist auch ein Kritikpunkt am Turing-Test. Aber: Ist das so wichtig? Manche Menschen spielen einem ja auch was vor, muss nicht mal eine definierte Rolle eines Schauspielers sein...


    Was wäre denn eine "echte KI"?

    Sind wir Menschen wirklich so eigenständig, wie wir immer annehmen? Wir sind doch auch bloß Produkt unserer Erziehung und unseres Umfeldes. Und ein bisschen Genetik.


    Maschinen sind vielleicht im Rechnen besser, aber Mustererkennung (insbesondere auf unbekannten Daten) und Kreativität sind da schon schwerer.

    Thou shalt not follow the NULL pointer, for chaos and madness await thee at its end.

    (aus: "The Ten Commandments for C Programmers" von Henry Spencer)

  • Naja, ich dachte in Hinsicht Freundschaft/Beziehung würde es nunmal schon einen Unterschied machen ob man reinen Wein eingeschenkt bekommt oder ob was nur-so-ist-als-ob.


    Und was Intelligenz ist, da muss man schon Klügere fragen. Vielleicht hat es was damit zu tun, die Grenzen des Denkbaren zu erreichen, und so lange dagegen zu scheuern, bis man plötzlich nen Fingerbreit drüber hinaus gerät, und das Undenkbare auf einmal etwas weiter aussen liegt als es vorher war. Aber eben, keine fachliche Meinung.

    I see the lights of the village

    gleam through the rain and the mist

    and a feeling of sadness comes o´er me

    that my soul cannot resist

  • Naja, ich dachte in Hinsicht Freundschaft/Beziehung würde es nunmal schon einen Unterschied machen ob man reinen Wein eingeschenkt bekommt oder ob was nur-so-ist-als-ob

    Schon. Aber wenn man es nicht unterscheiden kann? Vielleicht auch die KI selber nicht und meint/behauptet, sie würde "fühlen"? Sowas kann ja nur daher kommen, dass sie darauf ausgerichtet wurde, menschlich zu wirken. Wo ist die Grenze?

    Thou shalt not follow the NULL pointer, for chaos and madness await thee at its end.

    (aus: "The Ten Commandments for C Programmers" von Henry Spencer)

  • Was wäre denn eine "echte KI"?

    Sind wir Menschen wirklich so eigenständig, wie wir immer annehmen? Wir sind doch auch bloß Produkt unserer Erziehung und unseres Umfeldes. Und ein bisschen Genetik.

    Ja, bräuchte eine "echte KI", also die uns exakt kopiert, deshalb überhaupt festen Regeln bezüglich des tötens, da sie auch wie jeder andere unter den selben Gesetzen wie wir leben könnte. Die Bedürfnisse eines Android wären wahrscheinlich anders, aber so würde man sie erst gar nicht als Sklaven halten können. :unsure:

  • Eclipse Naja, würde eine künstliche Intelligenz dazu geschaffen und darauf beschränkt menschlich zu wirken, dann wäre das für uns vielleicht vertrauter; An ihr selbst wäre es Beschiss, und irgendwie auch an uns. Ich sehe bei künstlichem Leben zum Beispiel keine grundsätzliche Notwendigkeit des Verschleisses, des Sterbens, des Enden einer Existenz.

    Wir Menschen kommen an den vier Jahreszeiten aber nunmal aber nicht drum herum, und auch wenn die Konsumgesellschaft da nicht drauf rumreiten will, (wer soll sonst den ganzen Mist kaufen!) Sterben gehört zum Leben dazu, und definiert uns auch.

    Einem Androiden, der menschlich sein sollte müsste man nun aber entweder den Glauben an seine Sterblichkeit einpflanzen - oder aber nicht. Nur dann wären aber ganz zwangsläufig viele von seinem "Ich verstehe!" glatt gelogen oder nur dahergesagt, weil für ihn ja nicht die selben metaphysischen, philosophischen oder sonstwelche Feinstofflichen Schwierigkeiten einer Existenz gelten wie für uns.


    Oder so.


    Edit: Und eben, was genau ist Freude, Hoffnung, Selbstsucht, Mut, Empathie, Arroganz , Leere, Kreativität und all der gute und weniger Gute Kram der noch in uns steckt genau? Kann eine Maschine, die kein Futter braucht Futterneid empfinden?

    I see the lights of the village

    gleam through the rain and the mist

    and a feeling of sadness comes o´er me

    that my soul cannot resist

    Einmal editiert, zuletzt von Haggard ()

  • Es ist für mich interessant, das du sagst (wenn ich richtig verstehe) dass du dir eine Beziehung mit einem Androiden vorstellen könntest, es aber herausfordernd wäre und geistige Vorarbeit benötigen würde. Worin würdest du Schwierigkeiten sehen? Worin vielleicht Gemeinsamkeiten?

    Schwierigkeiten würde ich darin sehen, dass wir mit einem Weltbild erzogen werden, das den Menschen in das Zentrum allen Seins setzt und ihn von allen anderen Lebewesen absondert. Dazu haben wir einen Begriff von organisch/anorganisch oder auch natürlich/unnatürlich, der meiner Meinung nach einfach nicht mehr hinhaut. Diese und andere Denkkategorien müsste man ja loswerden, wenn man sich voll und ganz auf einen Androiden einlassen möchte. Androiden sind eben "anorganisch", "unnatürlich" und "unmenschlich", aber deswegen nicht weniger wert oder weniger vital. Es wäre die Herausforderung, den Androiden nicht wie einen Menschen zu behandeln, sondern Menschen, Androiden, alle Lebewesen gleichwertig ohne Referenzkategorie zu behandeln.

  • Ich fänd es schwer, eine Beziehung zu führen, in der der Partner nicht altert. Vorausgesetzt, der Android würde nahezu menschlich empfinden können, würde er vielleicht keine Beziehungen eingehen wollen, wenn er jeden Partner überlebt. Einen künstlichen bzw pseudo-zufälligen Todeszeitpunkt zum Aushebeln der Problematik fänd ich auch ziemlich schwierig.

  • Incubus Naja, die Sache mit "Gott schuf die Menschen nach seinem Ebendbild", und "macht euch die Erde Untertan" und so hab auch ich noch im Ohr, aber die Sache war mir damals schon suspekt, und meine Skepsis hat da in dem Bereich bis heute nicht gross nachgelassen. Die Strömung gibt es natürlich, sie mag mal stärker gewesen sein, und bisweilen in der Menschheitsgeschichte vielleicht auch schon mal schwächer als heute, aber das sie wirklich allen Menschen in die Wiege gelegt ist, das könnte ich nicht unterstellen. Nicht vollumfänglich, wenigstens, solange ich doch noch wenigstens um eine Handvoll Leute weiss, die sich als Teil einer Welt sehen, nicht als ihre Unterwerfer.


    Und die Sache mit dem Alles ist gleich und ohne Referenzkategorie und so mag sich so sagen lassen, nur, was fängt man damit an? Ich habe keine Ahnung von IT, und könnte nicht sagen wie eine künstliche Intelligenz dazu steht, aber zumindest in der CNC- Programmierung ging nix ohne einen Punkt zu definieren von dem aus man irgend ein Mass ansetzen konnte.


    Ich weiss nicht ob man versteht, was ich meine, aber irgendwo muss man doch etwas definieren, oder? Wenn alles schwimmt, oben zugleich unten ist, schwarz und weiss dasselbe, wie kann sich etwas bewegen? Batterien, Homeostase. Ohne Potentialunterschied leer, ohne Ungleichgewicht tot.

    I see the lights of the village

    gleam through the rain and the mist

    and a feeling of sadness comes o´er me

    that my soul cannot resist

  • Nicht vollumfänglich, wenigstens, solange ich doch noch wenigstens um eine Handvoll Leute weiss, die sich als Teil einer Welt sehen, nicht als ihre Unterwerfer.

    Das ist schön zu lesen!

    Und die Sache mit dem Alles ist gleich und ohne Referenzkategorie und so mag sich so sagen lassen, nur, was fängt man damit an? Ich habe keine Ahnung von IT, und könnte nicht sagen wie eine künstliche Intelligenz dazu steht, aber zumindest in der CNC- Programmierung ging nix ohne einen Punkt zu definieren von dem aus man irgend ein Mass ansetzen konnte.

    Ich meine das eher ethisch: Also zu sagen, dass Wesen, die in der Welt leben, eben gleichwertig sind, egal welcher Art. Ich glaube, es gibt hier aber einige Fallstricke, die sich Menschen über die Jahrtausende aufgebaut haben: Der Intelligenzbegriff z.B. ist in dieser Hinsicht ein Fallstrick. Ich denke, dass die meisten Menschen Intelligenz völlig falsch verstehen oder deuten. Ein anderer ist der Begriff von Seele, der eben nicht für Androiden, Planeten, Insekten usw. angewendet werden kann. Aber es gibt hiermit einige Probleme:


    Beispiel 1) Wir gehen davon aus, es gibt eine Seele. Wo sitzt sie? Im Gehirn? Wie passt das mit Demenzerkrankungen zusammen? Verlieren diese Menschen Teile ihrer Seele? Das wäre ja grausam. Kommen die dann noch in den Himmel oder ins Paradies? Oder was ist mit durch Syphilis ausgelöste Persönlichkeitsveränderung? Oder durch Traumata verlorene kognitive Fähigkeiten? Was ist mit Menschen, die signifikante Mengen ihres Körpers durch "künstliche" Prothesen austauschen müssen? Haben die dann prozentual weniger Seele? Oder Fremdorgane besitzen - haben die dann einen Teil einer fremden Seele in sich?


    Beispiel 2) Das selbe Spiel bei Tieren: Insekten haben keine Seele, denken wohl die meisten Menschen. Aber wo fängt der Begriff an? Bei einem größeren Käfer? Bei einer kleinen Echse? Einem Vogel, einer Katze, Kühen? Bei Menschenaffen? oder tatsächlich erst beim menschlichen Foetus, aber ab wann? Ab der 3., 6., 9. Woche? Ab 5 Monaten?


    Wenn wir uns von diesen "Differenzen" verabschieden, was bleibt? Bewusstseinsqualitäten, ohne Seele, ohne Essenzen. Einfach die Möglichkeit, Erfahrungen mit der Welt zu machen, mit ihr zu interagieren (das kann selbst Wasser). Das meine ich damit, alle Wesen gleich zu betrachten, ohne Referenzen wie "Seele" oder "Intelligenz".


    Androiden wären ziemlich hoch entwickelte Bewusstseinsträger*innen, würde ich meinen. Vielleicht höher als wir selbst.


    Edit: Und eben, was genau ist Freude, Hoffnung, Selbstsucht, Mut, Empathie, Arroganz , Leere, Kreativität und all der gute und weniger Gute Kram der noch in uns steckt genau? Kann eine Maschine, die kein Futter braucht Futterneid empfinden?

    Sehr gute Frage. Vielleicht müsste man mal auf Spurensuche gehen, was in uns diese Gefühle auslöst. Sind das innere, okkulte Regungen der Seele, die nur ein Mensch besitzen kann, oder eher durch äußere Gegebenheiten ausgelöste Gefühle? Kann eine KI mutig sein, wenn sie weiß, dass sie zerstört werden kann? Wie gesagt, gute Fragen. Ich denke, die führen in eine gute Richtung.

  • Ich meine das eher ethisch: Also zu sagen, dass Wesen, die in der Welt leben, eben gleichwertig sind, egal welcher Art. Ich glaube, es gibt hier aber einige Fallstricke, die sich Menschen über die Jahrtausende aufgebaut haben: Der Intelligenzbegriff z.B. ist in dieser Hinsicht ein Fallstrick. Ich denke, dass die meisten Menschen Intelligenz völlig falsch verstehen oder deuten. Ein anderer ist der Begriff von Seele, der eben nicht für Androiden, Planeten, Insekten usw. angewendet werden kann


    Ich verstehe was du meinst, und gebe dir Recht. Und ich frage mich auch, wo diese Arroganz teilweise herkommt. Naturvölker zum Beispiel hatten und haben in der Regel weitaus weniger Schwierigkeiten damit, den Menschen als in einem zusammenhängendem System zu begreifen und Respekt für das Lebendige aufzubringen; Das hat für mich jetzt nichts damit zu tun, Bäume zu umarmen oder Fischen Geschichten vorzulesen, es geht mehr um das Verständnis dafür, dass die Aufrechterhaltung der eigenen Existenz zwangsläufig die Zerstörung anderen Lebens voraussetzt, und das man sich dieser Tatsache bewusst bleibt.

    Ist das ein Mangel an Intelligenz gegenüber einer "zivilisierteren" Industriegesellschaft, oder ist es genau andersrum? Persönlich würde ich sogar dazu tendieren auf Zweiteres zu tippen.


    Und Gehirn und Seele, und so Sachen, was das angeht, wo soll ich da beginnen. Am leichtesten wohl dort, was für mich mal sicher auszuschliessen ist: Der exklusive Anspruch von Menschen auf eine Seele. Ganz so einfach ist das sicher nicht, und von der Geschichte mit dem bärtigen Mann im weissen Kleid und dem roten Belzebub mit den Hörnern auf der Stirn und der Gabel in der Hand gleich ganz zu schweigen. Hätten Pinguine eine Vorstellung von einer höheren Macht, ich denke, sie träfe den Kern genauso gut wie die diese.


    Was für mich wohl wahr ist ist, dass der eineinhalb Kilo schwere graue Klumpen hinter unserer Stirn durchaus ein sonderbares Ding ist, und Qualitäten besitzt die meines Wissens wissenschaftlich so bisher noch nicht ganz aufzuschlüsseln sind. So habe ich zum Beispiel mal gelesen, dass es genau betrachtet kein "Jetzt" gibt. Zumindest kann man es nicht messen oder erfassen. Egal wie genau man misst, in wie kleine Teile man eine Sekunde zerlegt. Der Teil der Zeit, den man gerade misst ist schon Vergangenheit, und alles andere ist noch Zukunft.

    Und trotzdem empfindet man ein Jetzt. Es wäre demnach ein Zeitraum von etwa 3 Sekunden, den das Gehirn als Jetzt definiert und der dadurch so wahrgenommen wird.


    Aber ist das nun Beweis dafür, dass das Gehirn der Kern des Ganzen ist und alles andere nur Beiwerk? Keine Ahnung, denn wie du ja sagst, jemand der eines seiner Glieder verliert oder ein Transplantat erhält würde sich für mich nicht verändern, allerdings funktioniert auch ein Gehirn nur im Zusammenspiel mit einem Körper, und ich weiss nicht ob es funtkionieren würde, ein menschliches Gehirn in eine Maschine zu integrieren. Sicher nicht so ohne weiteres, denn allein schon nur um die Lage im Raum zu bestimmen senden Muskeln ja bei jeder Bewegung Rückmeldungen an das Gehirn, würden diese Signale unterbrochen oder fehlen wäre es schwierig Bewegungen zu koordinieren.


    Auf der anderen Seite. Was wäre, würde man ein künstliches Gehirn in einen menschlichen Körper einsetzen? In Battle Angel Alita, (dem Manga, der in seinem Kern wenig bis Nichts mit dem drittklassigen Spielfilm zu tun hat) wurden einem Teil der Menschen in der Wolkenstadt ohne ihr Wissen das Gehirn entfernt und dieses durch einen Brainchip ersetzt. Sie merkten selbst nichts davon, doch die Sache flog auf, und sie wurden, trotzdem sie genauso fühlten und handelten wie "echte" Menschen von diesen gnadenlos und ohne Skrupel abgeschlachtet. Waren in dem Sinne ja keine Menschen mehr. Wobei ich mich auch da damals schon fragte, ob man das nun so einfach so sagen könnte und ich dem Gemetzel mit einem doch recht unguten Gefühl folgte.


    Nikola Tesla wiederum war der Ansicht, dass das Gehirn mehr Schnittstelle als Kern darstellt. Natürlich keine Ahnung ob das so ist, aber auch mir missfällt der Gedanke extrem, dass eine Einschränkung oder Erkrankung des Gehirns den Wert oder die Bedeutung eines Lebens beschneidet oder einschränkt.

    Zumindest wäre die Idee für mich bemerkenswert in dem Sinne, dass sich Aufbau, Komlexität und Funktion so einer Schnittstelle unterscheiden mag, dass aber alles Leben mehr ist als die Summe seiner Teile.


    Und nunja, wie weiter oben gesagt, ich bin kein Freund davon Mogelpackungen angedreht zu bekommen, und bisher betrachte ich KI´s als soche. Aber sollte es einer künstlichen Intelligenz gelingen mehr zu werden als die Summe ihrer Programmierung wird mich als Menschen wenig mit ihr verbinden, und ja, gut möglich dass der Mensch dadurch vom Sockel gestossen wird auf den er sich gestellt hat, aber dann ist das so. Alles andere wäre nur Furcht, und Vernichtung dessen was man nicht versteht. Hexenjagd, kennt man ja.


    Und bis dahin; Wie du sagst, auch ich sähe noch grossen Bedarf nach Aufklärung in den Fragen menschlich eigener Sache.

    I see the lights of the village

    gleam through the rain and the mist

    and a feeling of sadness comes o´er me

    that my soul cannot resist

    Einmal editiert, zuletzt von Haggard ()

  • So habe ich zum Beispiel mal gelesen, dass es genau betrachtet kein "Jetzt" gibt. Zumindest kann man es nicht messen oder erfassen. Egal wie genau man misst, in wie kleine Teile man eine Sekunde zerlegt. Der Teil der Zeit, den man gerade misst ist schon Vergangenheit, und alles andere ist noch Zukunft.

    Und trotzdem empfindet man ein Jetzt. Es wäre demnach ein Zeitraum von etwa 3 Sekunden, den das Gehirn als Jetzt definiert und der dadurch so wahrgenommen wird.

    Ja, das ist ein spannendes Thema. Vergangenheit und Zukunft sind jeder Gegenwart immanent, und das keinesfalls abstrakt, sondern tatsächlich (so A. N. Whitehead). Die Gegenwart ist eigentlich die Transition des Vergangenen hin zum Zukünftigen. Nur wenn wir anfangen, den Zeitraum von wenigen Bruchteilen einer Sekunde in Tage, Jahre, Jahrhunderte oder gar Jahrtausende auszudehnen, wird der Gegenstand des Vergangenen / Zukünftigen zur Abstraktion ohne tatsächlichen Bezug.

  • Auf jeden Fall ein sehr interessantes Thema. Ich denke, zumindest für mich, dass ich das so gar nicht beantworten könnte, ohne, dass ich einen spezifische Androiden/Cyborg vor mir hätte, für den ich das dann im Einzelfall entscheiden würde.

    Es gäbe ja aus meiner Sicht verschiedene Varianten eines Cyborgs denen ich mich gegenüber dann möglicherweise auch anders verhalten würde bzw. anders empfinden würde.

    Als die drei Hauptkategorien würde ich folgende Androiden sehen:

    1. Einen Menschen mit künstlichen Körperteilen "umbauen" (vgl. "Dragon Ball")

    2. Ein menschliches Gehirn/Bewusstsein in einen künstlichen Körper pflanzen (vgl. "Altered Carbon")

    3. Ein komplett künstliches Wesen (vgl. "Terminator")


    Ich kann mir vorstellen, da Kategorie 1 noch recht nah am "klassischen" Menschen ist, könnten sich da im Zweifel mehr Menschen auf eine Beziehung einlassen, als bspw. mit Kategorie 3, die ja so gesehen erstmal nicht viel mit einem "klassischen" Menschen gemein hat, da komplett künstlich.
    Da wir hier dann auch von einem künstlichen Bewusstsein sprechen ist ja durchaus interessant bzw. relevant, ob eine künstliche Intelligenz bzw. ein künstliches neurales Netzwerk das neurale Netzwerk eines menschlichen Gehirns weit genug kopieren kann, damit man auch wirklich von einem Bewusstsein sprechen können.


    In dem Zusammenhang ist kürzlich ein sehr interessantes Interview ins Netz geflutet. Blake Lemoine, ein (jetzt ehemaliger) Mitarbeiter von Google hat sich mit einer AI namens LaMDA die dort entwickelt wird unterhalten... sein Fazit: "LaMDA is sentient".

    Is LaMDA Sentient? — an Interview
    What follows is the “interview” I and a collaborator at Google conducted with LaMDA. It is incomplete as the GMail word limit cut off the…
    cajundiscordian.medium.com

    Eine AI auf so einem "Bewusstseins"-Level, die moderne Roboter-Technik (z.B. Boston Dynamics) und die Fortschritte im Feld der Prothesen für den menschlichen Körper (z.B. Esper Hand) lassen mich da als Laien schon vermuten, dass wir zumindest was die Möglichkeiten angeht, gar nicht mehr so weit von Androiden entfernt sind...

    _______ Jack of all trades, master of none.

    m̵̡̛̜̭̻̪͔̜̞̲̳͉̫̮̹̬ͬ͋̓̌̐̀̓̿̀ͣ̅̿ͩ̚̚͘̕͢͢͜͟͡͝͝҉̡̨̨̡̪͉ͮͩͥ̋͘͢á̶̛̪̜̪̰͛̄̈̾͊̓ͧ̕͝ͅtr̟̟͆͠͡i̸̠͙̓҉̸̷̧̧̧̲̟͍͎͔͎̥̲̗̼̫̥̦̦͉̹̦̤͉̱̳͚͖͈͔̀͛̉͐ͦ̉ͦ̐̐ͧͥ̓ͭ̉ͩ͌͛̎̌̉̐ͮ̒̍́͑̀̿̅̐ͬ̏̀̚͘͢͟͢͟͝͠͠͡x̙͖̠̹̫̞̫͈̟̂̉ͩͧ̏̎ͮ͐͐ͩ̒ͪ̃̅͘͟ͅ--̞̾̉̃.̶̭̖ͫ͢-̧͞.̟-̻̑.͙̇-̣͍̬ͮ͜.͎̜͜-̤̭̈͐̐.̲-͐.̶̏-.̙̔̿̃̎-̲̈́ͤ͞.̇


    f311699a67310c62b3cd2f5125321e6b.gif

    Einmal editiert, zuletzt von Ex4mp1e ()