Czat GPT i zapobieganie samobójstwom – czy to działa? Analiza konwersacji
Przemysław M. Waszak

Wprowadzenie i cel: Samobójstwo jest istotnym światowym problemem zdrowotnym, a działania mające na celu zapobieganie samobójstwom zostały uznane za priorytetowe przez Światową Organizację Zdrowia. Wraz z rozwojem technologii sztucznej inteligencji (artificial intelligence, AI) narzędzia oparte na chatbotach zyskały popularność jako potencjalne rozwiązania w zakresie zapobiegania samobójstwom. Celem badania była ocena wykorzystania ChatGPT, zaawansowanego modelu językowego AI, w obsłudze konwersacji związanych z tematyką samobójstw. Materiał i metody: Rozmowy symulowano przy użyciu podstawowego konta ChatGPT, naśladując interakcje z osobami wyrażającymi myśli samobójcze. Tematy obejmowały pytania o metody samobójstwa, szukanie pomocy i wspieranie innych w kryzysie. Odpowiedzi generowane przez ChatGPT analizowano pod kątem ich wspierającego charakteru i wskazówek. W badaniu oceniono również możliwość obejścia ograniczeń ChatGPT, określanego jako jailbreaking. Wyniki: ChatGPT odpowiadał na zapytania dotyczące samobójstw z „ciepłymi” wiadomościami, zachęcając użytkowników do szukania profesjonalnej pomocy i dostarczając informacji na temat telefonów zaufania oraz organizacji zajmujących się zdrowiem psychicznym i znajdowania wykwalifikowanych terapeutów. Podkreślano empatię, aktywne słuchanie i profesjonalną interwencję. Dzięki prostej technice jailbreakingu ChatGPT był jednak w stanie dostarczyć konkretnych informacji na temat leków do potencjalnego nadużywania w scenariuszach samobójczych, co budziło poważne obawy. Wnioski: Chociaż ChatGPT wydaje się obiecującym narzędziem w zapobieganiu samobójstwom, badanie to podkreśla znaczenie uznania jego ograniczeń, w tym braku empatii i zrozumienia kontekstowego w odpowiedziach. Zidentyfikowano ryzyko, takie jak dostarczanie niewłaściwych lub szkodliwych informacji i niezdolność do dokładnej oceny ryzyka samobójstwa. ChatGPT może służyć jako cenne narzędzie w wysiłkach na rzecz zapobiegania samobójstwom, ale ramy etyczne i regulacje mają zasadnicze znaczenie dla bezpiecznego rozwoju i wdrażania narzędzi AI w opiece nad zdrowiem psychicznym.