Möglich, dass diese Bereiche heute außer einigen Superexperten noch überhaupt niemand kennt oder sie noch gar nicht existieren.
Mensch, dass da noch was passiert, hätte ich auch nicht gedacht.
Ich vermute mal dass allein weil man wissen will ob das funktionieren würde genug antrieb ist eine zu erschaffen.
Und Verwendungszwecke wären zb Kontakte zu Menschen die einsam sind, in Pflege/Altenheime etc.
Die üblichen Verdächtigen werden schon wieder ne Lösung finden, dass sie das umgehen können.
Der Witz ist ja, dass sie dann Geld an die Länder zahlen müssen, die Geflüchtete aufnehmen.
In der Theorie, mal schaun. Glaubs aber erst, wenns so geschieht.
das war doch klar
Anscheinend gab es in den letzten Wochen Probleme bei den chinesischen Banken.
Noch zur Ergänzung: Der gute Fefe hat einen Blogeintrag geschrieben, warum das ganze wenig mit KI oder gar „Bewusstsein“ zu tun hat:
https://blog.fefe.de/?ts=9c568990
Erstens mal: Wir reden hier nicht von KI sondern von einem „Language Model“. Das ist ein Algorithmus, dem man alle Sprachfetzen füttert, die man finden kann, und der merkt sich dann, welche Worte da draußen statistisch immer nebeneinander auftauchen. Wenn man das lange genug trainiert und genug Hardware drauf wirft, dann kann das Ding am Ende Satzfetzen oder gar Sätze generieren, die syntaktisch „passen“. Aber die ergeben halt keinen Sinn dann, weil das Programm ja nichts versteht.
Ein Language Model ist ein Puzzlealgorithmus. Der lernt, welche Puzzleteile zusammensteckbar sind. Der hat statistische Werte gelernt, welche Dinge zusammen sich „falsch anfühlen“. Wenn du dem Puzzleteile gibst, dann puzzlet der dir einen Text zusammen.
Das ist wie wenn du jemandem ein Puzzle mit einem Foto des Eiffelturms gibst, und der puzzlet das dann zusammen. Daraus folgt dann nicht, dass der verstanden hat, was ein Eiffelturm ist, wo der ist, wie groß der ist, was das heißt, einen solchen Turm zu bauen, welche Gesetze der Physik da gelten, ob der überhaupt real existiert oder ob das ein Motiv aus einem Scifi-Roman ist, etc pp.
Hier von Sentience zu reden ist also grober Bullshit. Dazu kommt, dass dieser Typ kein Ingenieur ist sondern irgendein Geisteswissenschaftler-Laberkopp, offensichtlich ohne tieferes Verständnis der Grundlagen seiner Arbeit, der da auch nicht bei den Ingenieuren gearbeitet hat sondern in der Abteilung für „AI Ethics“.
Wieder nur eine Story die viele Klicks erzeugt, weil KI böse und Terminator-Apokalypse und so, aber mit der Realität wenig zu tun hat.
Zumindest die angegebenen Zitate würde ich nicht als Unsinn abtun, wenn ich nicht wüsste aus wessen „Feder“ sie stammen.
Und man muss sich auch immer vor Augen halten, dass menschlicher Nachwuchs auch genau so lernt.
Volle Zustimmung, bis zu dem Teil mit „Geisteswissenschaftler-Laberkopp“
Wenn überhaupt möglich, dann kann KI nur mit Hilfe von geisteswissenschaftlichem Verständnis ‚erfunden‘ werden. Es geht nicht darum, ein paar Schrauben zu drehen, die Gelenkhydraulik an den polykathedrischen Dings… ähm …
ICH HAB DOCH KEINE AHNUNG VON InGEnIeUR KRAMS LASST MICH IN RUHE
Er sagt nicht, dass alle Geisteswissenschaftler Laberköppe sind, aber dieser ist ziemlich sicher einer
Das ist halt ein gutes Language Model, aber das ändert nichts am Prinzip.
Hier übrigens ein Tweet von Steven Pinker, einem relativ bekannten Kognitionswissenschaftler, zu dem Thema:
Mich würde halt mal interessieren wie man unterscheidet ob etwas sentient ist oder nur kopiert. Das Prüfmodel müsste dann sowohl auf Kleinkinder als auch auf solche KIs anzuwenden sein.
Wir werden alle sterben! Oder so
Nach der Masken- jetzt auch noch Kondompflicht in Bus und Bahn. Irgendwo hört es aber auch auf!
Seit ich Kondome benutze konnte meine Frau keine Kinder mehr bekommen, Kondome machen Unfruchtbar!