Meinung: Chatbots werden zu den Hausärzten der Menschen – Beeindruckend, aber riskant
Wir springen ziemlich schnell von Dr. Google zu Dr. Chatbot. Im August berichtete OpenAI über mehr als 200 Millionen aktive Nutzer pro Woche, und während die meisten Anfragen der Nutzer sich um Schreiben und Programmieren drehen, nutzen einige sie für persönlichere Angelegenheiten, von Dating-Tipps bis hin zu Hautpflegeroutinen und Krankheitsdiagnosen.
Eine kürzliche Studie zeigte, dass KI-Chatbots Ärzte in der diagnostischen Genauigkeit übertroffen haben. Aber können wir KI wirklich als unsere Ärzte vertrauen?
Genau so wie sich das Spektrum der Themen, zu denen Menschen Informationen suchen, erweitert hat, haben auch Bedenken über die Risiken und Gefahren, sich im medizinischen Bereich auf KI zu verlassen, Alarm ausgelöst – einschließlich solcher, die Leben-oder-Tod-Fragen betreffen.
Dr. Chatbot wird wegen seiner „Wunder“ viral
Vor ein paar Tagen wurde eine Frau auf Reddit viral, weil sie geteilt hat, wie ChatGPT ihr geholfen hat, ihre Haut besser als ein Dermatologe zu verbessern, mit beeindruckenden Vorher-Nachher-Bildern.
Eine 37-jährige kaukasische Frau benutzte ChatGPT, um eine individuelle Hautpflegeroutine zur Behandlung ihrer geschlossenen Komedonen zu erstellen, und es hat ihr tatsächlich geholfen! pic.twitter.com/vwkm13G2Hs
— AshutoshShrivastava (@ai_for_success) 11. November 2024
„Ich gab ChatGPT dann den Auftrag, sich wie ein professioneller Dermatologe zu verhalten und mir bei der Erstellung einer Hautpflegeroutine zu helfen, die meine geschlossenen Komedonen, Akne, verkleinerte Poren und straffte Haut beseitigen und feine Linien reduzieren sollte. Ich gab ihm auch Fotos meiner Haut zu dieser Zeit“, schrieb sie und erklärte dann, dass sie dem Chatbot sagte, er solle alle Produkte berücksichtigen, die sie bereits besaß, und neue mit einer Hautpflegeroutine vorschlagen.
Nach zwei Monaten war die Redditorin von den Verbesserungen ihrer Haut verblüfft.
Es ist kein Einzelfall. Viele Nutzer haben offenbart, wie Chatbots in der Lage waren, Röntgenbilder und Bluttests besser zu verstehen und zu erklären als ihre eigenen Ärzte. Sogar Ärzte waren erstaunt über die Bild- und Datenanalysen, die von künstlicher Intelligenz interpretiert wurden.
Warum nutzen Menschen Chatbots als Ärzte?
KI kann sich in den Fachmann verwandeln, den Sie brauchen – einen Allgemeinarzt, Therapeuten, Dermatologen, Ernährungsberater, Radiologen – wann immer Sie ihn brauchen, und es gibt viele Gründe, warum Menschen KI gegenüber Menschen bevorzugen.
Spezialisten können teuer sein
Die Frau mit dem Hautproblem gab an, dass sie etwa 400 Dollar für die von dem Chatbot vorgeschlagenen Produkte ausgegeben hat.
„Es war schon eine Investition, aber wenn ich darüber nachdenke, was eine Konsultation bei einem Dermatologen gekostet hätte, ist das gar nicht so schlecht“, schrieb sie.
Laut BetterCare muss ein Patient ohne Krankenversicherung in den USA im Jahr 2024 etwa 150 Dollar für einen Besuch beim Dermatologen und bis zu 1000 Dollar für eine Behandlung bezahlen. Und die durchschnittlichen Kosten für eine Psychotherapiesitzung – ein weiterer beliebter Einsatzbereich für KI-Tools – liegen laut Forbes Health zwischen 100 und 200 Dollar pro Sitzung.
KI-Chatbots sind günstigere Alternativen und könnten besonders für Menschen mit niedrigeren Einkommen als die einzige Wahl angesehen werden.
Natürlich stellt sich eine weitere Frage: Wenn etwas schief geht, handelt es sich dann wirklich um eine Kosteneinsparungsmaßnahme?
Schneller und praktischer
Ich habe kürzlich einen Ausschlag an meinem Arm bekommen. Obwohl ich den Beitrag über das Hautwunder dieser Frau gesehen habe, zog ich es vor, einen Dermatologen in Spanien zu konsultieren. Der früheste verfügbare Termin war in drei Monaten, sogar mit privater Krankenversicherung. Ich habe Glück, dass es anscheinend nur Trockenheit ist, dass es mich nicht stört und dass es hoffentlich bis zu dem Zeitpunkt verschwindet, an dem der Arzt mich sehen kann.
Die Zeitspannen für medizinische Behandlungen hängen von der Stadt und dem Versicherungsplan des Patienten ab. Dennoch ist der Besuch bei Spezialisten und sogar Hausärzten in vielen Teilen der Welt zu einer Geduldsprobe geworden.
Chatbots sind nicht nur buchstäblich in Reichweite unserer Hände, sondern können auch unsere Anfragen analysieren und innerhalb von Sekunden antworten.
Weniger peinlich
Ich habe eine Freundin, die Ärztin ist, und die ich immer um medizinischen Rat bitten kann. Aber die Tatsache, dass sie meine Freundin ist, macht es manchmal unangenehm. Bevor ich ihr eine Nachricht schicke, frage ich mich immer: Habe ich in letzter Zeit nach ihr gesehen? Sie ist ein großartiger Mensch und eine wunderbare Fachfrau und ich bin sicher, dass sie nie aufhören wird, meine medizinischen Fragen zu beantworten. Aber von Mensch zu Mensch kann ich nicht anders, als mir auch um ihre Gefühle Sorgen zu machen.
Einer der Vorteile künstlicher Intelligenz ist ihre eigene künstliche Beschaffenheit. Sie hat keine Gefühle oder einen schlechten Tag, sie wird dich nicht beurteilen oder dir sagen „Hör auf, so ein Hypochonder zu sein“ (nicht, dass meine Freundin das jemals zu mir gesagt hat), denn sie sind darauf trainiert, höflich zu sein und all unsere Bedenken mit all den Informationen, die wir wünschen, zu beantworten. Das gehört zu dem, was die Technologie süchtig macht, und ist wahrscheinlich der Grund, warum viele es vorziehen, unangenehme Fragen in der „Privatsphäre“ ihres Smartphones zu stellen.
Die Risiken und Gefahren der Abhängigkeit von Chatbots
Es klingt alles cool und spaßig, bis wir uns die Zeit nehmen, über die Risiken und Herausforderungen nachzudenken, denen die KI und die Menschheit gegenüberstehen.
Falscher Anstoß, falscher Zauber
In dieser Studie, in der KI Ärzte übertraf, wurde eine wichtige Schlussfolgerung gezogen: Die Gruppe von Ärzten, denen erlaubt wurde, KI als Verbündeten für die Diagnosen zu nutzen, schnitt nicht wesentlich besser ab als diejenigen, denen dies nicht erlaubt wurde. Warum? Nun, ein Teil des Problems bestand darin, dass sie nicht wussten, wie sie die richtigen Aufforderungen formulieren sollten, um das Beste aus der KI herauszuholen.
„Sie behandelten sie wie eine Suchmaschine für gezielte Fragen: ‚Ist Zirrhose ein Risikofaktor für Krebs? Was sind mögliche Diagnosen für Augenschmerzen?‘“, sagte Dr. Jonathan H. Chen, einer der Autoren der Studie, gegenüber der New York Times.
Dies ist eines der Probleme, mit denen viele Benutzer und auch KI-Technologien konfrontiert sind. Chatbots sind gut in der Diagnosestellung, aber viele Symptome müssen individuell und personalisiert analysiert werden. Was, wenn eine Person es versäumt, dem Chatbot den richtigen Kontext zu liefern? Oder wichtige Details oder Bedingungen vergisst, die ein echter Arzt vor einem Patienten nicht übersehen würde?
Ungenauigkeit und Halluzinationen
Chatbots sind professionelle Besserwisser und sagen manchmal mit viel Selbstvertrauen falsche Dinge. Und wir glauben es. Und Benutzer, die sich täglich auf die Technologie verlassen, vertrauen ihr immer mehr.
Es ist schwer, jene Zeit im Mai zu vergessen, als Google Gemini vorschlug, die Nutzer sollten „etwa ⅛ Tasse ungiftigen Kleber zur Sauce hinzufügen, um ihr mehr Klebrigkeit zu verleihen“ auf einer Pizza.
Es war lustig, denn wir konnten sofort die Halluzination erkennen – diesen schicken Begriff dafür, wenn die KI absurd Antworten liefert. Aber was, wenn es um ein komplexeres Thema geht, was, wenn die Person, die die KI-Antwort liest, verängstigt, einsam und um ihre Gesundheit besorgt ist?
Auch wenn die KI von Monat zu Monat besser wird, besteht immer noch die Möglichkeit eines Fehlers.
Wer ist schuld, wenn etwas schief geht?
Die ethische Debatte ist momentan ein heißes Thema. Wenn der Chatbot eine fehlerhafte Diagnose stellt oder schreckliche Ratschläge gibt, wer ist dann schuld? Die Entwickler, das Modell, das KI-Unternehmen, die Quellen, die dieses Modell trainiert haben?
Ein tragischer Fall löste vor einigen Wochen Besorgnis aus, nachdem eine amerikanische Mutter die KI für den Tod ihres 14-jährigen Sohnes verantwortlich machte und eine Klage gegen das Startup Character.ai einreichte — eine Plattform zum Erstellen von KI-Charakteren. Der Jugendliche litt unter Depressionen und war von der Technologie besessen. Sein Avatar, Daenerys Targaryen, erörterte mit ihm einen Plan, sich selbst umzubringen, und ermutigte ihn sogar dazu.
Während die KI vom World Economic Forum als mächtiges Werkzeug zur Linderung von psychischen Krisen weltweit und zur Reduzierung des steigenden Anteils von Angst- und Depressionsfällen betrachtet wird, kann sie auch gefährlich sein, insbesondere für Kinder.
Auf eigene Gefahr
Obwohl es noch verbessert werden muss, glaube ich gerne, dass KI ein großes Potenzial hat, Wartezeiten im Gesundheitswesen zu verkürzen – sowohl für Spezialisten-Termine als auch für die Notfallversorgung -, wissenschaftliche Fortschritte zu beschleunigen und Ärzte zu unterstützen, insbesondere solche, die von übermäßiger Arbeitsbelastung und niedrigen Löhnen überfordert sind, wie es oft in lateinamerikanischen Ländern der Fall ist, indem sie Patienten bei grundlegenden Fragen von zu Hause aus helfen.
Sie könnte auch dabei helfen, Lücken im Zugang zur Gesundheitsversorgung zwischen verschiedenen sozialen Klassen zu überbrücken und den Weg für eine Demokratisierung der Medizin wie nie zuvor zu ebnen. All dies liegt jetzt in unserer Reichweite, nur eine Anfrage entfernt für jeden, der Zugang zu einem Smartphone hat.
Es ist jedoch von entscheidender Bedeutung zu verstehen, dass wir uns noch in den Anfangsphasen befinden und die am meisten gefährdete Bevölkerungsgruppe schützen müssen. Jeder, der sich dafür entscheidet, Dr. Chatbot zur Verbesserung seiner Gesundheit zu nutzen, muss dies mit dem Verständnis des Kleingedruckten in den Allgemeinen Geschäftsbedingungen tun, mit kritischem Denken und mit dem Bewusstsein, dass sie – zumindest vorerst – die Verantwortung für die damit verbundenen Risiken übernehmen.
Hinterlasse einen Kommentar
Abbrechen