Natürlich kann es das, das will ich auch nicht abstreiten. Aber es hängt halt einerseits vom Bereich ab, denn je weniger Daten zu gewissen Themen eingefüttert werden können, umso unwahrscheinlicher wird natürlich eine richtige Antwort.
Und 80% Korrektheit heißt halt eine von fünf Antworten ist falsch. Aber man erkennt eben nicht unbedingt ob es falsch ist. Also muss man es ja theoretisch trotzdem nochmal nachprüfen und dann eben auf Google oder eigenes Wissen zurückgreifen.
Als Unterstützung bei Experten ist es halt auch nochmal was anderes als für unwissende Personen, welche falsche Ergebnisse deutlich schwerer erkennen können. Da kann dann halt trotzdem falsches Vertrauen wachsen.
Es ist halt nochmal eine einfachere Stufe für leichtgläubigen Menschen, Information als bare Münze zu nehmen als das erste Google Ergebnis zu nehmen, das sehe ich da eben noch kritisch dran.
Und dass es eben kein so genaues Verständnis dafür gibt, wie Machine Learning genau funktioniert und wie Einfluss genommen werden kann.
Ich will deine hervorgebrachte Kritik nicht runterspielen o.ä. Aber selbst Ärzte sind nicht immer zu 100% korrekt, weshalb es da genau eine ähnlich Fehlerquote gibt. Das solche KI selbstverständlich Risiken mit sich bringt, wie falsche Sicherheit (oder Unsicherheit s. Google und Medizinfrage, wo Patienten Panik bekommen, weshalb jeder Arzt davon abrät, zu googeln) ist logisch und offensichtlich. Und klar, ist es immer besser, selbst Quellenrecherche zu betreiben, die wiederum aber selbst beigebracht werden muss, damit diese wirklich richtig abläuft (s. Verschwörungstheorien und genauen Einschätzung der Quelle). Genauso ist es limitiert in Bereichen, vor allem im künstlerischen, in Bereichen, wo Publikation oft nicht hauptsächlich digital ablaufen oder in komplexeren Bereichen mit Aufgabenstellungen. Ich denke, die Risken sind allen in diesem Thread bekannt. Mittlerweile finde ich es dennoch legitim, neben eigener Recherche, zu gucken, was diese KI so rausspucken kann. Sie hat sich doch in den letzten Jahre enorm verbessert.
Bei der Erkennung von gut- und bösartigen Tumoren ist die KI ja sogar besser als Ärzte.
Bleibt natürlich trotzdem ein komisches Gefühl, weil man eher Menschen vertraut. Selbst wenn diese nachweislich in diesem Fall öfter falsch liegen…
Der Mensch ist auch nur eine Ansammlung von Wissen (Informationen und Erfahrungen). Der einzige Unterschied ist, dass der Mensch jedoch noch seine Intuition hat, Erfahrungswerte aus X Jahren Praxiserfahrung hat und weitersammelt. Dadurch wird er Sachen (potentiell) anders beurteilen können.
Ja, sowieso.
Trotzdem krass, wenn man sich überlegt, dass die KI richtig gelegen hätte, aber der Arzt sagt nope. Ist am Ende dann halt scheiße.
Im Zweifel wird wahrscheinlich eh eher entfernt als nichts gemacht.
Wobei das ja in dem Fall wahrscheinlich nochmal eine andere Art der KI ist. Die wird ja dann spezifisch mit Tumorbildern darauf trainiert, um die Bilder richtig zu erkennen. Das heißt im Optimalfall wurden vorher ein Haufen Bilder, welche von Experten schon richtig kategorisiert wurden, der KI gegeben, sodass sie dann immer einen Abgleich hat, ob sie das richtige erkannt hat und damit besser wird. Für solche sehr spezifischen Aufgaben ist KI super geeignet (solange es eben genug annotierte Daten gibt).
Aber Chat GPT ist das eben nicht. Der wird mit einem Haufen Texten gefüttert und bildet dann eben über Wahrscheinlichkeiten die wahrscheinlich sinnvollste Folge an Wörtern, die zu deiner eingefügten Folge an Wörtern passen.
Der Datensatz dafür ist natürlich riesig, aber die KI hat eben kein spezifisches Wissen, sondern nur Bezüge von Wörtern zueinander.
Deswegen ist es eben wichtig zu unterscheiden, was Chatgpt kann und was andere "KI"s können.
Bildanalyse ist da einfach nochmal ein anderes Anwendungsfeld.
Ja, ich wollte das nur nochmal betonen, weil du eben den Sprung von Chat gpt, was im medizinischen Bereich genutzt werden könnte, zu einer spezifischeren Anwendung gemacht hast.
Ok, wenn es dir konkret nur um ChatGPT geht und nicht KI allgemein, dann könnte ich auch mit dem Beispiel Code kommen. Da spuckt auch ChatGPT ziemlich gute Sachen raus, die man zumindest als gute Basis hernehmen kann.
Aber auch hier, es kommt halt immer auf den Anwendungsfall an.
Das muss man natürlich auch erst mal für sich selbst lernen und abwägen, wo Spaß und Ungenauigkeiten ok sind und wo es doch ernster und Qualitätüberprüft sein sollte.
Komplett ablehnen finde ich genauso verkehrt wie komplett abhängig davon alles zu glauben, was das Ding ausgibt.
Man muss sich halt damit beschäftigen, wie mit jedem anderen Tool auch.
Leider gibt es einige Leute, die das nicht tun und gefühlt null kritisches Denken aufweisen. Allerdings nicht nur im Bereich KI, sondern eben auch bei Nachrichten. Seien die jetzt von der Tagesschau oder Smalltalk mit Tante Berta.
Jein. Wenn man das ständig nutzt, wird man ja mit der Zeit auch einfach faul.
Aber generell seh ich KI in vielen Bereichen noch kritisch. Allein der Energieverbrauch, nur damit ich nicht 5 Minuten für ne Briefformulierung nachdenken muss, das steht doch in keinem Verhältnis.
Ich lasse chatGPT oft meine mods für den Landwirtschaftssimulator schreiben oder umschreiben. Ich sag ihm, welche Funktion ich für die mod brauche, schicke ihm die zip datei, gpt passt die xml an und verpackt es mir wieder in ne zip datei.
Nichts was ich nicht selbst auch könnte, aber so spart man halt enorm zeit.