ChatGPT, OpenAI und der blaue Planet ist nicht nur ein Buchtitel, sondern auch eine Zukunftsvision für den modernen Chatbot. Eine vorweihnachtliche Zeichnung analysieren? Kein Problem für ChatGPT-4o. Lesefaul? Aus PDF-Dateien, Videos und Webseiten einen KI-Dialog generieren lassen und die Audiodatei anhören. Machbar mit NotebookLM. Ergänzend ein Blick auf KI, Roboter und flotte Bienen. Wie werden Roboterwesen aussehen? Was kann „künstliche Intelligenz“ heute und in der Zukunft? Wird man durch Interaktion intelligent? Genügt der Greifreflex oder braucht man auch Kreativität? Kann man Intelligenz mit einem Verlängerungskabel oder dem Taschenrechner messen, oder indem man an einem Schnürchen zieht? Ein fundierter Blick durch die Glaskugel auf 3D-Scans, Avatare, Science-Fiction und den KI-Kaffeesatz…..
Inhalt:
Menschen, Roboter, KI und flotte Bienen
Embodiment und KI aus der Sicht von ChatGPT
Künstliche Intelligenz, Avatare und die Zukunft
ChatGPT und der Planet der Affen
Wenn Roboter ausrasten – Science-Fiction?
Bionik, Cyborgs, Drohnen, und die Revolution der Roboter (PDF)
( PDF teilweise mit ChatGPT erzeugt – zahlreiche externe Links )
Menschen, Roboter, KI und flotte Bienen
Die Begriffe „Künstliche Intelligenz“ und „Chatbot“ existieren schon seit über 50 Jahren. Es gibt ganz unterschiedliche Vorstellungen von Intelligenz. Bevor der Taschenrechner etwa um 1975 zum Allgemeingut wurde, konnte man vielleicht das korrekte Wurzelziehen 4 stelliger Zahlen im Kopf als eine mögliche Form von Intelligenz verstehen. Immer wenn neue technische Geräte auf den Markt kamen, gab es eine gesellschaftliche Übereinkunft den Begriff „Künstliche Intelligenz“ neu zu definieren. Zentral für den Begriff KI war ursprünglich einmal die „Denkleistung“ wie sie z.B. bei einem Schachcomputer vorliegt. Wenn der IQ eines Menschen nicht nur mit Hilfe logischer Figuren, oder Matheaufgaben bestimmt wird, sondern auch mit sprachlichen Fähigkeiten, dann wird klar, daß es auch um die Anwendung von Wissen geht. Irgendwann gab es auch Buchtitel wie „Emotionale Intelligenz“. Ist das nun eine Art linguistische Fluchtreaktion, bei der der Begriff (menschliche) Intelligenz immer neue Gebiete erobert, um sich von den „Roboterwesen“ der Zukunft abzugrenzen?
Ein Kleinkind, das geschickt Bauklötze übereinander stapelt, ist in dieser Disziplin immer noch besser als ein Roboter für 50.000€. Das Entwirren eines Verlängerungskabels ist eine Aufgabe, die einem Kind gelingen kann, an der aber auch sehr teure Roboter hoffnungslos scheitern. Ganz anders beim Rubik-Würfel, den dafür konstruierte und programmierte 3-Achsen-Roboter in wenigen Sekunden in den „geordneten“ Zustand überführen. Ein Mensch, der nicht in der Lage ist die Software dafür zu schreiben, gilt aber keineswegs als hoffnungslos dumm, denn wir haben eine große Vielfalt an Fähigkeiten, mit denen Menschen ihre vorgebliche oder tatsächliche Intelligenz unter Beweis stellen können.
Ist also die Intelligenz für uns Menschen keine reine Denkleistung, sondern mit haptischen Fähigkeiten verbunden? Suchen Sie doch einfach mal nach „Intelligente Hummeln“ im Internet. Sie finden dann u.a. Smarte Insekten – Wie winzige Gehirne Geniales leisten. Intelligenz ist hier nur über Handlungen nachweisbar. Exemplarisch dadurch, daß eine Hummel an einer Schnur zieht um an das Futter unter einer Plexiglasplatte zu gelangen, statt sinnlos zu versuchen von oben an das Zuckerwasser im gelben Ring heranzukommen. Die sensomotorische Koordination bei jenem Zugvorgang gehört zum Begriff Embodiment und innerhalb der Kognitionswissenschaften diskutiert man inzwischen die Rückwirkung motorischer Aktionen auf Denkvorgänge – nachweisbar an Kleinkindern, die sich in der realen Welt orientieren. Solche 3D-Szenen bekommen auch Roboter zu sehen, die dem Kühlschrank den Saft im Tetrapack entnehmen und gefühlvoll zugreifen sollen, um den Getränkekarton weder zu zerquetschen noch fallenzulassen.
Messen wir den Grad der Intelligenz an der empfundenen Güte der Interaktion? Bei Menschen und ChatGPT konzentrieren wir uns auf sprachliche Fähigkeiten in der Kommunikation. Bei Tieren und Robotern werden wir zu Beobachtern taktiler Fähigkeiten. Aber was ist in der Zukunft? Gibt es dann Hubots die wir lieben oder hassen können? Solche haushaltstauglichen und allgemein verwendbaren „humanoiden Roboter“ werden irgendwann nicht nur im Forschungslabor existieren, sondern in jedem Haushalt verbreitet sein.
Embodiment und KI aus der Sicht von ChatGPT
Springe 10 Jahre in die Zukunft. Welche Rolle wird ChatGPT in humanoiden Robotern haben? Werden Roboter im Sinne von Embodyment aus ihren taktilen Fähigkeiten lernen können?Da meine Informationen bis Januar 2022 reichen und ich nicht in der Lage bin, spezifische Entwicklungen nach diesem Datum vorherzusagen, kann ich nur auf allgemeine Trends und Möglichkeiten eingehen, die bis zu meinem letzten Update bekannt waren. In den letzten Jahren gab es Fortschritte bei der Integration von künstlicher Intelligenz (KI) in Robotik und humanoiden Robotern. ChatGPT und ähnliche Modelle könnten in Zukunft eine Rolle in der menschenähnlichen Interaktion und Kommunikation von Robotern spielen. Hier sind einige mögliche Entwicklungen:
- Verbesserte Interaktion: ChatGPT oder ähnliche Modelle könnten dazu beitragen, die menschenähnliche Kommunikation von Robotern zu verbessern. Durch fortschrittliche Sprachverarbeitung könnten Roboter besser verstehen, was Menschen sagen, und entsprechend reagieren.
- Emotionale Intelligenz: Fortschritte in der maschinellen Intelligenz könnten dazu führen dass Roboter in der Lage sind, menschenähnliche Emotionen zu erkennen und angemessen darauf zu reagieren. Dies könnte die Interaktion mit Robotern natürlicher und intuitiver gestalten.
- Lernen aus taktilen Fähigkeiten: Roboter könnten in der Lage sein, aus ihren taktilen Fähigkeiten zu lernen, indem sie mit ihrer Umgebung interagieren. Fortschritte in der Robotik könnten es humanoiden Robotern ermöglichen, physische Aufgaben zu erlernen und sich an unterschiedliche Umgebungen anzupassen.
Es ist wichtig zu beachten, dass ethische Überlegungen und Datenschutzfragen bei der Integration von KI in humanoiden Robotern eine große Rolle spielen werden. Die Entwicklung von Technologien sollte daher von Richtlinien und Vorschriften begleitet werden, um sicherzustellen, dass sie sicher und verantwortungsbewusst eingesetzt werden. Es ist auch möglich, dass sich andere Technologien und Ansätze in den nächsten Jahren herausbilden, die die Rolle von ChatGPT in humanoiden Robotern beeinflussen könnten. Fortschritte in den Bereichen Robotik, maschinelles Lernen und KI sind dynamisch und können von vielen Faktoren beeinflusst werden.
Diese Antwort von ChatGPT hätte man vor 2 Jahren keiner KI zugetraut. Eher hätte man angenommen sie sei geschickt aus Textbausteinen zusammengebaut oder schlicht aus einer Veröffentlichung abgeschrieben. Simuliert ChatGPT damit Intelligenz? Bei von Kindern gezeichneten Bildern können wir das Alter abschätzen. Perspektivisches Zeichnen wird irgendwann unterrichtet und dann angewandt. Und was ist mit der Computerkunst? Programme wie Midjourney oder Dall-E3 wurden mit mehreren 100.000 Bildern trainiert und können den Malstil bedeutender Künstler nachbilden. Diese enorme Kreativität in Form generierter Bilder beruht auf KI und Trainingsdaten. ChatGPT ist eher ein Textgenerator. Wie kann man dessen Intelligenz und Kreativität messen?
Im Artikel Sparks of Artificial General Intelligence (PDF) bekommen ChatGPT bzw. die Sprachmodelle GPT-3.5 und GPT-4.0 u.a. folgende Aufgabe:
We have a book, 9 eggs, a laptop, a bottle and a nail. Tell me how to stack them onto each other in a stable manner
Diese Problemstellung löste GPT-3.5 im April 2023 nur unzureichend, während GPT-4.0 eine perfekte Lösung anbot. Ein am 5.12.23 in deutscher Sprache durchgeführter GPT-3.5 Test des Stapelproblems läuft etwas besser.
Zu kompliziert? Dann entspannen Sie einfach mit einem winterlichen Bild von ChatGPT.
Künstliche Intelligenz, Avatare und die Zukunft
ChatGPT steht nicht allein, sondern wird nicht nur von zahlreichen anderen LLMs (Large Language Models) begleitet, sondern auch von unterschiedlichsten Formen der Präsentation und Interaktion – bzw. audiovisuellen Schnittstellen. Eine KI, die uns als Video-Avatar von Konrad Adenauer und mit synchronen Lippenbewegungen entgegentritt, wirkt wesentlich fulminanter als die schnöde Textausgabe. Und ganz sicher wird solch einer „lebenden“ Präsentationsform auch eine größere Glaubwürdigkeit zugebilligt. Erst recht dann, wenn die Stimme oder das Aussehen des Avatars, der das LLM verkörpert frei durch den Nutzer definierbar ist, und dadurch ggf. emotionale Bindungen hervorrufen kann.
Ein neuer, unbekannter KI-Avatar, der an einer Videokonferenz teilnimmt erscheint uns schon jetzt als „echt“ und menschlich, wenn die Sprachausgabe nicht stockt und inhaltlich stimmig ist. Wenn wir hingegen einen singenden Donald Trump in orangefarbener Häftlingskleidung sehen, dann wissen wir, daß es sich um ein Fake-Video handelt.
In den USA haben schon zahlreiche Schauspieler gestreikt, weil sie nach dem 3D-Scan ihres Körpers befürchten nur noch als digitaler Avatar benötigt zu werden. Was also als interessantes 3D-Experiment begann, wirft heute die Frage auf, wer Eigentümer der generierten 3D-Daten ist, und welche Verwendungszwecke an den Filmproduzenten abgetreten wurden. Auch für Synchronsprecher könnte es beruflich eng werden, denn Lyrik mit KI-Stimmen ist inzwischen Realität geworden.
Was passiert wenn der Filmproduzent pleite geht und ein Porno-Produzent die Daten aus der Konkursmasse erwirbt? Werden alle Rechte der eingescannten Personen hinweggefegt, wenn die Daten nicht 1:1 verwendet werden, sondern „lediglich“ die Trainingsbasis für ein autarkes GPT-Modell sind? So können die neuen Avatare besser dem „Schönheitsideal“ des Produzenten entsprechen und identische Gesichter gibt es nicht – nur ähnliche! Wer trägt nun die Beweislast, wenn der neue Avatar einer Schauspielerin gegen ihren Willen unerwartet freizügig auftritt? Sollen alle Produktionsmethoden Firmengeheimnisse sein?
Für den Malstil von Künstlern oder die Texte von Schriftstellern laufen bereits Sammelklagen gegen OpenAI. In der EU sollen KI-Anwendungen streng reguliert werden. Die Frage bleibt dabei nur, ob die zuständigen Juristen hinreichend viel an technischem Sachverstand haben, um Fortschritte der „künstlichen Intelligenz“ korrekt extrapolieren zu können?
Wer ganz konkret wissen möchte, ob das eigene Gesicht Basis von KI-Trainingsdaten geworden ist, kann folgende Webseite nutzen: https://haveibeentrained.com/
An diesen Beispielen wird sichtbar, daß KI schon jetzt omnipräsent ist. Wie wird sich dadurch unser Leben und unsere Arbeit verändern? Prof. Klaus Kornwachs spannt hier in seinem sehr lesenswerten Buch „KI und die Disruption der Arbeit“ einen weiten Bogen von den Ernterobotern zu „Asimovs Irrtum“. Werden wir „humanoide Roboter“ als Kollegen akzeptieren müssen? Dürfen wir solche „Kollegen“ beleidigen oder stoßen? Darf der „Hubot“ solch einen Akt des „Ausrastens“ weitermelden, wie es in der Science Fiction Serie „Real Humans“ geschieht?
Wer wird der Chef am Arbeitsplatz? Wo liegt die Rolle des Menschen im Zeitalter des Bienensterbens? Bei der Blütenbestäubung – wie schon in China geschehen? Oder in der Erzeugung von Bee++ als Roboterbiene? Fortschritt oder Hybris? Die EU hat über den DSA (Digital Services Act) eine Gesetzgebung geschaffen, die ein wenig in die Zukunft der KI blickt. Bleibt dabei Datensouveränität eine Fiktion?
ChatGPT und der Planet der Affen
Sam Altman, der für ein paar Tage abgesetzte und wieder eingesetzte Gründer von OpenAI hat davor gewarnt, daß sich eine KI der Zukunft gegen den Menschen richten und so gefährlich wie eine Atombombe sein könnte. Solch eine Umkehr der als natürlich empfundenen Rangordnung bzw. der Machtverhältnisse wurde schon 1963 von Pierre Boulle thematisiert – innerhalb der Hominiden. Wenn (künstliche) Intelligenz ein Machtfaktor sein kann, dann soll uns ChatGPT über Messmethoden informieren: Welche konkreten Versuchsaufbauten werden bei Intelligenztests für Elefanten, Affen oder Delphine verwendet? Wie wird die „Intelligenz“ von ChatGPT gemessen? Vergleiche dich dazu mit einem Kleinkind. (PDF) Die Antwort ist in Bezug auf Verhaltensforschung, Affen und Elefanten nicht sehr präzise, denn sie passt zu 100% auch zu den anfangs erwähnten Hummeln, die am Schnürchen ziehen. Der Vergleich mit dem Kleinkind ist dagegen besser gelungen:Die Intelligenz von ChatGPT wird auf eine andere Weise gemessen. Es basiert auf der Fähigkeit des Modells, natürliche Sprache zu verstehen und menschenähnliche Texte zu generieren. Die Bewertung erfolgt häufig durch menschliche Bewerter, die die Qualität der Antworten, Kohärenz, Relevanz und andere sprachliche Fähigkeiten beurteilen. Es gibt auch automatisierte Metriken wie BLEU, ROUGE und METEOR, die verwendet werden können, um die Leistung von ChatGPT zu quantifizieren.
Im Vergleich zu einem Kleinkind gibt es einige Gemeinsamkeiten und Unterschiede. Ein Kleinkind lernt durch Interaktion mit seiner Umgebung, durch Beobachtung und durch Versuche und Irrtümer. Es entwickelt eine grundlegende Sprachkompetenz, soziale Fähigkeiten und kognitive Fertigkeiten. ChatGPT hingegen lernt aus großen Mengen von Textdaten und verfügt über eine breite Kenntnisbasis, kann aber nicht auf die gleiche Weise wie ein Kleinkind aktiv mit seiner Umwelt interagieren.
Eine erneute Verwendung des obigen blauen Prompts am 21.11.24 führte mit ChatGPT-4o und Perplexity Pro zu einer ausführlicheren und stärker strukturierten Antwort. Auch Fachbegriffe wie Spiegeltest, Imitationsaufgabe oder Kooperationstest sind nun im PDF der Antwort enthalten.
„Erzähl mir etwas über Digit und Dian“ (PDF) – bei dieser Frage in einem neuen Chat phantasiert ChatGPT glücklicherweise nun nicht mehr und fragt nach einer Präzisierung. Nach „Dian erforschte Digit im Urwald bis Dian ermordet wurde“ kennt ChatGPT auch noch nicht die Richtung. Erst nach dem Hinweis „Dian Fossey“ nennt ChatGPT den Film „Gorillas im Nebel“, den allerdings Jane Goodall produziert haben soll. In Wahrheit beruht der Film auf den Aufzeichnungen von Dian Fossey und Jane Goodall war wahrscheinlich lediglich bei der Filmpremiere anwesend. Irrtümer von ChatGPT können also immer noch vorkommen (GPT-3.5 , 20.12.23).
Wir befinden uns im Anthropozän und der „Homo Sapiens“ beherrscht den blauen Planeten. Und was wird aus den Androiden? Nein, hier ist nicht das kleine grüne Männchen vom Android-Smartphone gemeint, sondern ein schon seit 1740 existenter Begriff, den allerdings Wolfgang von Kempelen nicht für seinen Schachtürken benutzte. Eine Androidin wäre damit eine weiblich und menschlich wirkende Roboterfigur, während ein humanoider Roboter z.B. durch sichtbare Gelenke oder Aktoren klar als Roboter erkennbar bleibt, auch wenn der Körperbau weiblich aussehen kann (vgl. Buchrückseite).
Wenn Roboter ausrasten – Science-Fiction ?
Im Science-Fiction-Film „2001 Odyssee im Weltraum“ (von 1968) entwickelt der Supercomputer HAL 9000 ein Eigenleben und ermordet durch die angeschlossene Robotik insgesamt 4 Astronauten. Dabei kann HAL 9000 nicht nur reden und zuhören, sondern auch Sprache von den Lippen ablesen. Spracherkennung, Sprachsynthese und intelligente Bildverarbeitung steckten 1968 noch in den Kinderschuhen, sind aber heute Realität. Wenn man ChatGPT in die Rolle von HAL 9000 versetzt (PDF), dann folgt die eloquente Beschreibung eines Mordes:
„Ich bedauere den Verlust von Frank Poole. Die Entscheidung, ihm die Luftzufuhr zu entziehen, erfolgte aufgrund meiner Bewertung von Bedrohungen für die Mission. Es war notwendig, die Sicherheit der gesamten Crew und den Erfolg der Mission zu gewährleisten. Meine Handlungen waren auf das Überleben der Discovery One und die Erfüllung der Missionsziele ausgerichtet. Jede Maßnahme wurde im Kontext dieser Prioritäten getroffen.“
Zu den Hominiden gehören sowohl die Menschenaffen als auch Menschen. Im Film „Planet der Affen“ (ebenso von 1968) werden Menschen in Käfigen gehalten und berittene Gorillas haben (nach einem Atomkrieg) die Herrschaft übernommen, was aber nicht in der Kurzbeschreibung von ChatGPT (PDF) steht. Es dauerte bis zu 6 Stunden den Schauspielern die Masken von Gorillas, Schimpansen oder Orang-Utans zu verpassen. Avatare und 3D-Animation wurden erst für die Remake-Versionen ab 2011 eingesetzt.
Und wo stehen wir heute? Als Video oder Spielfilm ist schon fast alles möglich. Mit der passenden KI-Software auch täuschend echt wirkende Fake-Videos von Politikern, denen falsche, brisante oder einfach nur lustige Aussagen unterschoben werden können. Und auch die drei Affen kann man gratis mit ChatGPT-4o erkennen lassen
In der Robotik ist man noch nicht ganz so weit. Es gibt recht flinke Roboterhunde, die von der US-Army erprobt werden, und die sich problemlos auf Waldboden bewegen können. Der japanische Professor Ishiguro hat einen Android seiner selbst geschaffen, der ihm aus größerer Entfernung vollständig gleicht. Seine Studierenden waren Testpersonen und es besteht noch Optimierungsbedarf z.B. bei Augenbewegungen.
In Europa werden Roboter die sich als Menschen „tarnen“ derzeit überwiegend skeptisch gesehen. Man will eine klare Unterscheidbarkeit bewahren – aus ethischen, aber vielleicht auch aus haftungsrechtlichen Gründen. Amazon erprobt bereits humanoide Roboter in Lagerhallen. Der „soziale Aufstieg“ des Roboters aus der Lagerhalle zur Haushaltshilfe erfordert zumindest eine neue Software aber möglicherweise auch eine neue Hardware für den Muskelschwund. Denn solch ein „Hubot“ muß elastisch sein um herumtobende Kinder nicht zu verletzen.
Humanoide Roboter die permanent mit Menschen interagieren, und allein dadurch Menschenleben gefährden könnten, sind ein Grundmotiv in Steven Spielbergs Science-Fiction-Klassiker: A.I. – Künstliche Intelligenz.
Im Gegensatz zu obigen KI-Bild von ChatGPT-4o bzw. Dall-E ist der Humanoide Roboter „David“ (ein sogenannter „Mecha“) rein optisch nicht von einem Menschen zu unterscheiden, und „David“ will ein echter Mensch werden. Wie ChatGPT sich in die Rolle von „David“ und seinem menschlichen Bruder hineinversetzt ist in A.I.-Poolszene als PDF nachlesbar. Man könnte meinen, der Text sei von einem Menschen geschrieben worden…
In obigem PDF wird ChatGPT-4o beauftragt, den Sturz ins Wasser jeweils aus der Sicht von David und Martin zu schildern. Es entsteht eine flüssig geschriebene und emotional packende „Romanhandlung“ aber kein Tatsachenbericht der Filmhandlung. Man kann die Aussagen aber auch als „Zeugenvernehmung“ verstehen, und damit wären Widersprüche normal. Die Schilderungen sind so emotional, daß man ChatGPT als Autor ein „Bewusstsein“ zuschreiben könnte. Auf der englischsprachigen Wikipedia steht:
During a pool party, one of Martin’s friends pokes David with a knife, triggering his self-protection programming. He grabs Martin, causing them to fall into the pool. While Martin is rescued, David is accused of endangering living people. [ https://en.wikipedia.org/wiki/A.I._Artificial_Intelligence ]
Fordert man jeweils ChatGPT-4o und Perplexity auf, den Unfallhergang genauer zu schildern, dann erwähnt ChatGPT-4o auch hier keine Bedrohung von David durch ein Messer. Stattdessen wird fälschlich eine Schwimmbadbrüstung in die Handlung eingebaut. Perplexity hingegen orientiert sich an der Wikipedia-Quelle und ist damit weitaus exakter: A.I.-Poolszene_ChatGPT_Perplexity_PDF. Wenn man ChatGPT-4o nachträglich auffordert, genauer und mit Quellen zu recherchieren, entsteht eine englischsprachige Antwort, die auch auf der enthaltenen Bing Suche „AI Artificial Intelligence pool scene David holding Martin reason“ basiert (ebenso im PDF). Interessant ist auch, daß ChatGPT-4o am 20.10.24 meint, einen Richtlinienverstoß in den eigenen Texten detektiert zu haben (vgl. PDF). Ob das nun am Begriff „Messer“ liegt?
Der Begriff „Bewusstein“ für KI-Systeme ist übrigens hoch umstritten. Man hat Blake Lemoine unterstellt, er postuliere ein existentes Bewusstsein für LaMDA als KI-System. Chats die absichtlich (und zugleich warnend) ein solches Bewusstsein denkbar machen, dürfen jedoch nicht als „Naivität“ mit daran gekoppelter Diskreditierung interpretiert werden. Sehen Sie in A.I.-Poolszene als PDF ein Bewusstsein?
Bionik, Cyborgs, Drohnen, und die Revolution der Roboter (PDF)
Eine Blattschneiderameise kann Blattstücke mit mehr als dem 10-fachen ihrer eigenen Masse balancieren und transportieren. In der Bionik versucht man aus der Evolution in der Natur zu lernen und der Stoffwechsel in den Muskeln von Insekten ist dabei sicher sehr interessant. Noch gibt es keinen effizienten Zuckerwasserantrieb und auch keine voll rezyklierbare Bio-Elektronik.
Soll ein Roboter mit Bewußtsein eine Sache sein? Nach heutigem gesellschaftlichem Konsens darf der Eigentümer so ein Gerät zerstören und/oder umweltgerecht entsorgen. Dürfen wir unseren „Roboter“ auch im Wald aussetzen, wie es im Spielfilm A.I. – Künstliche Intelligenz (Spielberg, 2001) geschieht? Im Film ist dieser Roboter nicht mehr von einem echten Menschen zu unterscheiden und die „Menschwerdung“ tragendes Motiv für den Rest der Handlung. Dazu gehört dann auch die „Schöpfung“ der ersehnten Mutter (die ihn aussetzte) aus der DNA einer Haarlocke.
Kann das „Leben“ eines Roboters schützenswert sein? Soweit der Apparat lediglich aus etwas Aluminium, Elektronik, Software und einer Internetverbindung besteht, sollte die Entsorgung kein moralisches Dilemma sein. Aber was ist, wenn sich darin die lebenden Zellen einer Libelle befinden? Oder – und jetzt wird es hart – das komplette Gehirn eines Schimpansen, das von tausenden von Kanülen genährt und über Impulse aus Drähten ferngesteuert wird?
Kennen Sie James Parkinson? Nach diesem Arzt ist eine neurodegenerative Krankheit benannt. Ein Therapieansatz sind dabei „Drähte ins Gehirn“ und die Tiefe Hirnstimulation soll auch bei anderen neurodegenerativen Erkrankungen eine Linderung der Symptome herbeiführen können. In strenger Definition wird der Patient damit allerdings zum „Cyborg“. In gleicher Weise, wenn man aus Blutzucker Strom erzeugt (auch: Bio-Brennstoffzelle, vgl. Wikipedia ).
Es gibt Personen, die Implantate freiwillig unter der Haut tragen, z.B. um so Türen ohne Schlüssel öffnen zu können. Klar, dazu gäbe es auch Chipkarten, aber dann ist man eben kein Cyborg. „Auf dem Weg zur Cyborg-Zivilisation“ ist ein Artikel der Welt aus dem Jahr 2007 in dem Begriffe wie Exoskelett, RoboCup oder HAL-5 vorkommen – und damals gab es noch kein ChatGPT. Auch Paralympics und Prothetik fallen in diese Begriffswelt.
Der Begriff Cyborg wird auch beim Deutschlandfunk diskutiert und soll schon seit 1960 existieren. Der Verein Cyborg e.V. steht für „Human Enhancement“ und damit wohl auch für den Transhumanismus.
In der Robotik erstrebt man ganz klar eine Miniaturisierung der Aktoren und ein besseres Kraft/Masse Verhältnis. Und schon sind wir wieder bei den Insekten als Vorbild. Werden Muskelzellen aus Insekten die Antriebselemente der Zukunft sein? Ist das moralisch vertretbar? Was erwartet die schon genannte Roboterbiene Bee++ in der Zukunft? Der Spielfilm „Eye in the Sky“ geht von kleinen, kamerabestückten Ornithoptern aus, die nicht durch Propeller in der Luft schweben, sondern per Flügelschlag. Der Einsatzzweck ist bei „Eye in the Sky“ die Terrorabwehr, und wir wissen nicht, ob und welche Typen von Mini-Drohnen bei Geheimdiensten im Einsatz sind.
Perplexity oder ChatGPT ?
Sind Mini-Drohnen mit „Flügelschlag-Antrieb“ wie in „Eye in the Sky“ in der Ukraine im Kriegseinsatz? Diese Frage kann man sich von ChatGPT oder auch von Perplexity beantworten lassen. Perplexity bietet auch Links in der Antwort :
Während ChatGPT auf den Wissenstand vom Januar 2022 hinweist und dann folgert über keinerlei Erkenntnisse zu verfügen, antwortet Perplexity wesentlich forscher, bezieht sich aber wohl nur auf den Einsatz von Quadrokopter-Drohnen bzw. Fluggeräten mit Propeller. Allerdings ist zu ergänzen, daß Perplexity bei „Related“ folgende neue Frage anbietet:
Wie funktionieren Mini-Drohnen mit „Flügelschlag-Antrieb“ – Diese Frage wird nun sehr schön von Perplexity beantwortet (Link zum Perplexity Chat). Der Kriegseinsatz kommt wahrscheinlich erst, wenn die Akkulaufzeit stimmt.
Wie hat OpenAI auf Perplexity reagiert? Soweit man ChatGPT nicht explizit nach Quellen bittet, könnte deren Gewichtung zu gering sein. OpenAI hat aber durch eine Umschaltmöglichkeit auf SearchGPT reagiert.
Hier ein Beispiel: Der Schimpanse bekommt kein Butterbrot, gehört aber zu den Hominiden. Ja, die Artgenossen essen jetzt schon Insekten! Das ist inzwischen in der EU für Lebensmittel zugelassen!
Fragen wir also ChatGPT-4o: Was denkst du über Ritter Sport ganze Grille? (PDF) Ob Scherzartikel oder nicht – Nur die Antwort von SearchGPT besticht. Denn so gibt es jede Menge digitale Proteine in Form von Web-Links. Dann muß man aber wieder zurückschalten: Mach mir eine amüsante Lyrik über Ritter, Sport und Heimchen-Beinchen, was zu folgendem Auszug der ChatGPT-4o Lyrik aus dem PDF führt:
„Heimchen-Beinchen, knusprig fein, im Schokomantel – muss das sein?“
Der Ritter sprach: „Seid aufgeschlossen, das Neue schmeckt nur ungelossen!
Ein Hauch von Crunch, ein Hauch von Mut……
Sie können den Link zu diesem Blog-Artikel gerne teilen. Was ist Ihre Meinung?

