Große Sprachmodelle wie GPT haben das Potenzial, Anzeichen einer Depression zu erkennen

Große Sprachmodelle wie Chat GPT haben das Potenzial, psychische Gesundheitsrisiken – darunter Depressionen und Selbstmord – bei Patienten zu erkennen, die sich bereits in psychiatrischer Behandlung befinden. Dies geht aus einer von Jama Open Network veröffentlichten Studie hervor.
Untersuchungen eines koreanischen Teams deuten darauf hin, dass diese Modelle zwar „Potenzial“ für die Erkennung derartiger Risiken aufweisen, „es jedoch unerlässlich ist, Leistung und Sicherheit vor der klinischen Anwendung weiter zu verbessern“.
Das Team untersuchte das Potenzial großer Sprachmodelle. Dabei handelt es sich um künstliche Intelligenzsysteme, die anhand großer Datenmengen trainiert werden, sodass sie in der Lage sind, natürliche Sprache zu verstehen und zu generieren.
Dasselbe Potenzial zeigen Einbettungen , eine Technik zur Verarbeitung natürlicher Sprache, die menschliche Sprache in mathematische Vektoren umwandelt, die ebenfalls vom Team analysiert wurden.
Die Studie basierte auf Daten von 1.064 psychiatrischen Patienten im Alter von 18 bis 39 Jahren, die verschiedene Selbstberichts- und Satzvervollständigungstests absolvierten.
Bei Letzterem wird dem Patienten eine Reihe unvollendeter Sätze vorgelegt, die er mit dem Ersten, was ihm in den Sinn kommt, vervollständigen und subjektive Angaben machen soll, beispielsweise zu seinem Selbstkonzept oder seinen zwischenmenschlichen Beziehungen.

Diese Modelle haben ihr Potenzial bei der Beurteilung psychischer Gesundheitsrisiken unter Beweis gestellt. Foto: iStock
Die Daten wurden von großen Sprachmodellen wie GPT-4, Gemini 1.0 Pro oder Google Deepmind und von Text-Embedding-Modellen wie text-embedding-3-large OpenAI verarbeitet.
In der Studie heißt es, dass diese Modelle „ihr Potenzial bei der Beurteilung psychischer Gesundheitsrisiken“, darunter Depressionen und Selbstmord, „unter Verwendung narrativer Daten von psychiatrischen Patienten unter Beweis gestellt haben“.
In einem Kommentar zu der Studie, an der er nicht beteiligt war, wies Alberto Ortiz vom Universitätsklinikum La Paz (Madrid) darauf hin, dass die Studie an Patienten durchgeführt wurde, die sich bereits in psychiatrischer Behandlung befanden. Daher sei eine Verallgemeinerung der Ergebnisse, um diese Methodik auf die Risikoerkennung in der Allgemeinbevölkerung anzuwenden, „im Moment nicht möglich“.
Ortiz sagte im Science Media Centre, einer wissenschaftlichen Ressourcenplattform, dass sich die Anwendung von KI im Bereich der psychischen Gesundheit, wenn überhaupt, auf die subjektiven Erzählungen der Menschen konzentrieren müsse, wie es in dieser Forschung getan werde .
Er war jedoch der Ansicht, dass es „eine Sache ist, Risiken zu erkennen und Screenings durchzuführen, und eine ganz andere, Menschen mit psychischen Problemen zu behandeln. Diese Aufgabe geht über die Anwendung einer technologischen Lösung hinaus und bei der die Subjektivität des Arztes für die Entwicklung einer therapeutischen Bindung von wesentlicher Bedeutung ist.“
eltiempo