Google hat still und leise eine neue, KI-basierte Suchfunktion namens „What People Suggest“ eingestellt, die Nutzern von Laien generierte Gesundheitstipps aus aller Welt präsentierte. Dies geschah inmitten zunehmender Bedenken und Kritik an der Nutzung von Künstlicher Intelligenz zur Bereitstellung von Gesundheitsinformationen. Das Feature, das erst vor Kurzem eingeführt worden war, zielte darauf ab, das Wissen der Crowd zu nutzen, um Nutzern bei gesundheitlichen Fragen zu helfen.

Das Konzept hinter „What People Suggest“ war, mithilfe von KI, Ratschläge und Erfahrungen von Personen aus verschiedenen Online-Quellen zu sammeln und sie in einer leicht verständlichen Form innerhalb der Google-Suchergebnisse anzuzeigen. Google argumentierte anfänglich, dass diese Funktion das Potenzial habe, die Gesundheitsversorgung weltweit zu verbessern, indem sie den Zugang zu Informationen erleichtert und Nutzern ermöglicht, von den Erfahrungen anderer zu lernen. Das Unternehmen betonte, dass es sich dabei um ein Experiment handelte, um zu erforschen, wie KI genutzt werden kann, um Menschen bei gesundheitlichen Fragen zu unterstützen.

Allerdings stieß das Feature schnell auf Kritik. Experten bemängelten die mangelnde Qualitätssicherung und die potenzielle Gefahr, dass Nutzer fehlerhafte oder sogar schädliche Ratschläge erhalten könnten. Die Sorge war, dass die von der KI zusammengetragenen Informationen nicht immer korrekt oder auf dem neuesten Stand waren und dass sie möglicherweise nicht den individuellen Bedürfnissen der Nutzer entsprachen. Das Risiko, dass Nutzer sich aufgrund dieser Ratschläge falsch behandeln oder wichtige medizinische Behandlungen verzögern könnten, wurde als erheblich eingestuft.

Die Entscheidung, das Feature einzustellen, erfolgte, nachdem interne und externe Stimmen laut wurden, die die ethischen und praktischen Implikationen der Nutzung von KI im Gesundheitsbereich in Frage stellten. Google hat sich bisher nicht offiziell zu den Gründen für die Einstellung geäußert, aber es wird allgemein angenommen, dass die Bedenken hinsichtlich der Genauigkeit, Zuverlässigkeit und potenziellen Schädlichkeit der von der KI bereitgestellten Informationen eine entscheidende Rolle spielten.

Dieser Vorfall unterstreicht die Herausforderungen und Verantwortlichkeiten, die mit der Integration von KI in sensible Bereiche wie die Gesundheitsversorgung verbunden sind. Es zeigt, dass es nicht ausreicht, lediglich technologische Lösungen zu entwickeln, sondern dass eine sorgfältige Prüfung der ethischen, sozialen und potenziellen negativen Auswirkungen unerlässlich ist. Die Einstellung von „What People Suggest“ könnte als Lektion für andere Technologieunternehmen dienen, die KI-basierte Lösungen im Gesundheitsbereich entwickeln, und sie dazu anregen, höchste Standards für Genauigkeit, Zuverlässigkeit und Patientensicherheit zu gewährleisten. Es bleibt abzuwarten, wie Google in Zukunft mit der Nutzung von KI im Gesundheitsbereich umgehen wird, aber es ist klar, dass das Unternehmen aus diesem Vorfall gelernt hat und seine Strategie möglicherweise überdenken wird.