Anzeige

Dia­gno­se per Chat­bot? Gesund­heits­kas­se warnt vor fal­scher Sicher­heit

Immer mehr Men­schen wen­den sich mit Gesund­heits­fra­gen an Chat­bots wie ChatGPT – statt all­ge­mei­ner Such­ergeb­nis­se, wie sie „Dr. Goog­le“ lie­fert, gibt es Ant­wor­ten im Dia­log. Auch Rönt­gen­bil­der oder Sym­pto­me wer­den ein­ge­ge­ben. Doch wie ver­läss­lich sind sol­che digi­ta­len Hilfs­mit­tel?

Digi­ta­le Ori­en­tie­rung mit Risi­ken

Gun­nar Mol­len­hau­er von der IKK gesund plus sieht in der Nut­zung von KI-gestütz­ten Anwen­dun­gen durch­aus Poten­zi­al – zumin­dest für eine ers­te Ori­en­tie­rung. Chat­bots sei­en rund um die Uhr ver­füg­bar und lie­fer­ten schnell umfang­rei­che Infor­ma­tio­nen. Gleich­zei­tig warnt er aber auch vor einer unkri­ti­schen Nut­zung.

Gefahr durch über­zeu­gen­de Feh­ler

Im Unter­schied zu klas­si­schen Such­ma­schi­nen simu­lie­ren Chat­bots eine per­sön­li­che Bera­tung. Das mache es schwe­rer, die Aus­sa­gen kri­tisch zu hin­ter­fra­gen. Pro­ble­ma­tisch sei zudem, dass vie­le Nut­ze­rin­nen und Nut­zer nicht erken­nen, wenn eine Infor­ma­ti­on unvoll­stän­dig oder falsch dar­ge­stellt wird. Oft feh­le der Hin­weis, dass es sich um rei­ne Annah­men han­delt.

Kein Ersatz für ärzt­li­che Exper­ti­se

Für Mol­len­hau­er ist klar: ChatGPT & Co. kön­nen den Arzt nicht erset­zen. Sie berück­sich­ti­gen weder indi­vi­du­el­le Lebens­um­stän­de noch kom­ple­xe medi­zi­ni­sche Zusam­men­hän­ge. Dia­gno­sen und The­ra­pie­emp­feh­lun­gen soll­ten wei­ter­hin in ärzt­li­cher Ver­ant­wor­tung blei­ben.


Anzeige

Das könnte Sie auch interessieren

Anzeige