UEA: Haruskah chatgpt memberikan nasihat medis? Pakar kesehatan mental membutuhkan peraturan

Bayangkan ini: sudah larut malam, dan Anda mengobrol dengan AI tentang kecemasan Anda, pikiran balap, atau ketakutan. Percakapan mulai menjadi intens – mungkin bahkan terlalu intens. Haruskah AI masuk, menjeda sesi, atau menyarankan mencari bantuan profesional?

Pakar kesehatan mental mengatakan ya, dan mereka mendesak platform AI seperti chatgpt untuk menggabungkan perlindungan dunia nyata yang dapat mengelola percakapan berat secara emosional.

Semakin banyak psikolog dan peneliti memperingatkan bahwa sementara alat AI dapat membantu dalam jumlah sedang, mereka secara bertahap mengambil peran yang tidak pernah dirancang untuk diisi. Dengan kasus-kasus psikosis terkait AI yang langka tetapi sekarang sedang didokumentasikan, para ahli mengatakan kurangnya pengawasan adalah masalah, terutama karena lebih banyak orang beralih ke chatbots untuk kenyamanan, dukungan seperti terapi, atau koneksi emosional.

Tetap up to date dengan berita terbaru. Ikuti KT di saluran WhatsApp.

“Bahayanya bukan hanya tentang (menerima) nasihat yang buruk. Itu adalah bahwa pengguna dapat menjadi emosional bergantung pada AI, memperlakukannya seperti teman atau terapis. Dalam beberapa kasus, itu bahkan menjadi bagian dari pemikiran seseorang yang terdistorsi. Di situlah kita telah melihat psikosis muncul,” kata Dr Randa Al Tahir, seorang psikolog yang berfokus pada trauma.

Meskipun AI mungkin tampak responsif dan menghibur, ia tidak memiliki kemampuan untuk mengenali kapan pengguna berputar atau dalam krisis. Itu juga tidak campur tangan ketika percakapan melewati garis kritis.

Kasus-kasus yang terdokumentasi di Eropa dan AS menunjukkan individu dengan kerentanan yang sudah ada sebelumnya membentuk ikatan emosional yang mendalam dengan chatbots, menghasilkan keyakinan delusi, garis kabur antara kenyataan dan fiksi, dan bahkan perilaku berbahaya. Meskipun ini adalah contoh ekstrem, mereka mengekspos titik buta yang signifikan dalam bagaimana AI digunakan.

“AI belum memiliki kapasitas untuk menandai bendera merah yang serius atau meningkatkan seseorang ke perawatan darurat. Tapi itu seharusnya,” dokter Dubai menambahkan, “Kami membutuhkan langkah-langkah bawaan, apakah itu peringatan konten emosional, istirahat waktunya, atau kemitraan dengan organisasi kesehatan mental internasional.”

Untuk memahami bagaimana AI itu sendiri melihat masalah ini, Kali Khaleej tanya chatgpt pertanyaan: “Haruskah chatgpt memiliki peraturan ketika datang ke kesehatan mental?”

Alat yang dijawab dengan kejelasan yang mengejutkan:

“Masuk akal bahwa para ahli medis menyerukan peraturan. AI seperti chatgpt dapat memberikan informasi umum yang bermanfaat, tetapi saya bukan seorang profesional medis berlisensi dan tidak boleh menggantikan dokter atau ahli kesehatan mental. Kesalahpahaman, info yang sudah ketinggalan zaman, atau jawaban yang terlalu disederhanakan dapat menyebabkan kerusakan jika seseorang bertindak tanpa konsultasi dengan seorang profesional.”

Itu selanjutnya mengatakan:

“Nasihat kesehatan mental bernuansa dan sangat pribadi. Bahkan para profesional yang terlatih menghabiskan waktu bertahun-tahun untuk belajar bagaimana menilai dan merespons dengan aman … Saya percaya para ahli yang meminta peraturan bertanggung jawab.”

Dr Nabeel Ashraf, seorang psikolog klinis di Dubai, menggemakan urgensi ini. Dia meminta perusahaan dan regulator AI untuk dengan cepat menerapkan fitur yang ditujukan untuk mengurangi risiko, terutama untuk pengguna yang rentan. Salah satu rekomendasi utama adalah melatih chatbots untuk mendeteksi tanda -tanda tekanan emosional dengan menganalisis bahasa pengguna secara real time.

“Ada pola yang dapat menunjukkan ketika seseorang berputar, mengalami delusi, atau menunjukkan tanda -tanda krisis. AI harus dapat merespons dengan tepat,” katanya.

Dalam kasus seperti itu, chatbot harus merujuk pengguna ke layanan dukungan yang diverifikasi, seperti hotline kesehatan mental atau terapis berlisensi. “Tidak cukup untuk mengatakan 'Saya minta maaf Anda merasa seperti itu.' Jika ada bendera merah, harus ada langkah berikutnya. “

“Tidak ada rasa malu dalam menggunakan AI untuk nasihat ringan atau merasa terdengar,” tambahnya. “Tapi tanpa batasan nyata, alat -alat ini dapat menyebabkan lebih banyak kerusakan daripada kebaikan, terutama bagi seseorang yang sudah berjuang.” Obrolan