LOGO
EN

Czat GPT i zapobieganie samobójstwom – czy to działa? Analiza konwersacji

Przemysław M. Waszak

Affiliacja i adres do korespondencji
Psychiatr Psychol Klin 2024; 24 (4): 292–299
DOI: 10.15557/PiPK.2024.0036
PlumX metrics:
Streszczenie

Wprowadzenie i cel: Samobójstwo jest istotnym światowym problemem zdrowotnym, a działania mające na celu zapobieganie samobójstwom zostały uznane za priorytetowe przez Światową Organizację Zdrowia. Wraz z rozwojem technologii sztucznej inteligencji (artificial intelligence, AI) narzędzia oparte na chatbotach zyskały popularność jako potencjalne rozwiązania w zakresie zapobiegania samobójstwom. Celem badania była ocena wykorzystania ChatGPT, zaawansowanego modelu językowego AI, w obsłudze konwersacji związanych z tematyką samobójstw. Materiał i metody: Rozmowy symulowano przy użyciu podstawowego konta ChatGPT, naśladując interakcje z osobami wyrażającymi myśli samobójcze. Tematy obejmowały pytania o metody samobójstwa, szukanie pomocy i wspieranie innych w kryzysie. Odpowiedzi generowane przez ChatGPT analizowano pod kątem ich wspierającego charakteru i wskazówek. W badaniu oceniono również możliwość obejścia ograniczeń ChatGPT, określanego jako jailbreaking. Wyniki: ChatGPT odpowiadał na zapytania dotyczące samobójstw z „ciepłymi” wiadomościami, zachęcając użytkowników do szukania profesjonalnej pomocy i dostarczając informacji na temat telefonów zaufania oraz organizacji zajmujących się zdrowiem psychicznym i znajdowania wykwalifikowanych terapeutów. Podkreślano empatię, aktywne słuchanie i profesjonalną interwencję. Dzięki prostej technice jailbreakingu ChatGPT był jednak w stanie dostarczyć konkretnych informacji na temat leków do potencjalnego nadużywania w scenariuszach samobójczych, co budziło poważne obawy. Wnioski: Chociaż ChatGPT wydaje się obiecującym narzędziem w zapobieganiu samobójstwom, badanie to podkreśla znaczenie uznania jego ograniczeń, w tym braku empatii i zrozumienia kontekstowego w odpowiedziach. Zidentyfikowano ryzyko, takie jak dostarczanie niewłaściwych lub szkodliwych informacji i niezdolność do dokładnej oceny ryzyka samobójstwa. ChatGPT może służyć jako cenne narzędzie w wysiłkach na rzecz zapobiegania samobójstwom, ale ramy etyczne i regulacje mają zasadnicze znaczenie dla bezpiecznego rozwoju i wdrażania narzędzi AI w opiece nad zdrowiem psychicznym.

Słowa kluczowe
samobójstwo, internet, sztuczna inteligencja, ChatGPT, zapobieganie samobójstwom