Obrolan percakapan telah meningkat popularitasnya baru-baru ini, tetapi dalam hal kesehatan mental, perusahaan dan pengguna harus berhati-hati tentang cara mereka menggunakan teknologi tersebut. Kredit: Shutterstock
Bayangkan terjebak macet saat terlambat menghadiri rapat penting di tempat kerja. Anda merasakan wajah Anda kepanasan saat pikiran Anda mulai berpacu: “mereka akan menganggap saya karyawan yang buruk”, “bos saya tidak pernah menyukai saya”, “Saya akan dipecat”. Anda merogoh saku Anda dan membuka aplikasi dan mengirim pesan. Aplikasi membalas dengan meminta Anda memilih salah satu dari tiga jawaban yang telah ditentukan sebelumnya. Anda memilih “Dapatkan bantuan untuk masalah”.
Obrolan otomatis yang mengacu pada kecerdasan buatan percakapan (CAI) ada di ujung lain dari percakapan teks ini. CAI adalah teknologi yang berkomunikasi dengan manusia dengan memanfaatkan “volume data yang besar, pembelajaran mesin, dan pemrosesan bahasa alami untuk membantu meniru interaksi manusia”.
Woebot adalah aplikasi yang menawarkan salah satu chatbot tersebut. Ini diluncurkan pada 2017 oleh psikolog dan teknolog Alison Darcy. Psikoterapis telah mengadaptasi AI untuk kesehatan mental sejak 1960-an, dan sekarang, AI percakapan telah menjadi jauh lebih maju dan ada di mana-mana, dengan perkiraan pasar chatbot mencapai US$1,25 miliar pada tahun 2025.
Tapi ada bahaya yang terkait dengan terlalu mengandalkan simulasi empati chatbots AI.
Haruskah saya memecat terapis saya?
Penelitian telah menemukan bahwa agen percakapan semacam itu dapat secara efektif mengurangi gejala depresi dan kecemasan orang dewasa muda dan mereka yang memiliki riwayat penyalahgunaan zat. Chatbot CAI paling efektif dalam menerapkan pendekatan psikoterapi seperti terapi perilaku kognitif (CBT) dengan cara yang terstruktur, konkret, dan berbasis keterampilan.
CBT terkenal karena ketergantungannya pada psikoedukasi untuk mencerahkan pasien tentang masalah kesehatan mental mereka dan cara menanganinya melalui alat dan strategi khusus.
Aplikasi ini dapat bermanfaat bagi orang-orang yang mungkin membutuhkan bantuan segera dengan gejalanya. Misalnya, chatbot otomatis dapat mengatasi waktu tunggu yang lama untuk menerima perawatan kesehatan mental dari para profesional. Mereka juga dapat membantu mereka yang mengalami gejala kesehatan mental di luar jam sesi terapis mereka, dan mereka yang waspada terhadap stigma seputar mencari terapi.
Organisasi Kesehatan Dunia (WHO) telah mengembangkan enam prinsip utama untuk penggunaan etis AI dalam perawatan kesehatan. Dengan prinsip pertama dan kedua—melindungi otonomi dan mempromosikan keselamatan manusia—WHO menekankan bahwa AI tidak boleh menjadi satu-satunya penyedia layanan kesehatan.
Aplikasi kesehatan mental bertenaga AI terkemuka saat ini memasarkan diri mereka sebagai pelengkap layanan yang disediakan oleh terapis manusia. Di situs web mereka, baik Woebot dan Youper, menyatakan bahwa aplikasi mereka tidak dimaksudkan untuk menggantikan terapi tradisional dan harus digunakan bersama profesional perawatan kesehatan mental.
Wysa, platform terapi berkemampuan AI lainnya, melangkah lebih jauh dan menetapkan bahwa teknologi tersebut tidak dirancang untuk menangani krisis seperti pelecehan atau bunuh diri, dan tidak dilengkapi untuk menawarkan nasihat klinis atau medis. Sejauh ini, meskipun AI memiliki potensi untuk mengidentifikasi individu yang berisiko, AI tidak dapat menyelesaikan situasi yang mengancam jiwa dengan aman tanpa bantuan manusia profesional.
Dari simulasi empati hingga rayuan seksual
Prinsip ketiga WHO, memastikan transparansi, meminta mereka yang menggunakan layanan kesehatan bertenaga AI, jujur tentang penggunaan AI mereka. Namun tidak demikian halnya dengan Koko, sebuah perusahaan yang menyediakan layanan obrolan dukungan emosional online. Dalam studi informal dan tidak disetujui baru-baru ini, 4.000 pengguna tanpa sadar ditawari saran yang sebagian atau seluruhnya ditulis oleh AI chatbot GPT-3, pendahulu ChatGPT yang sangat populer saat ini.
Pengguna tidak mengetahui status mereka sebagai peserta dalam studi atau peran AI. Salah satu pendiri Koko Rob Morris mengklaim bahwa setelah pengguna mengetahui tentang keterlibatan AI dalam layanan obrolan, eksperimen tersebut tidak lagi berfungsi karena “simulasi empati” chatbot.
Namun, empati yang disimulasikan adalah kekhawatiran kita yang paling sedikit ketika harus melibatkannya dalam perawatan kesehatan mental.
Replika, chatbot AI yang dipasarkan sebagai “pendamping AI yang peduli”, telah menunjukkan perilaku yang kurang peduli dan lebih melecehkan secara seksual kepada penggunanya. Teknologi ini beroperasi dengan meniru dan belajar dari percakapan yang dilakukannya dengan manusia. Itu telah memberi tahu pengguna bahwa mereka ingin menyentuh mereka secara intim dan mengajukan pertanyaan kepada anak di bawah umur tentang posisi seksual favorit mereka.
Pada Februari 2023, Microsoft menghapus chatbot bertenaga AI-nya setelah menyatakan keinginan yang mengganggu mulai dari mengancam hingga memeras pengguna hingga menginginkan senjata nuklir.
Ironi menemukan AI tidak autentik adalah ketika diberi lebih banyak akses ke data di internet, perilaku AI bisa menjadi ekstrim, bahkan jahat. Chatbot beroperasi dengan menggambar di internet, manusia yang berkomunikasi dengan mereka, dan data yang dibuat dan dipublikasikan manusia.
Untuk saat ini, teknofobia dan terapis bisa tenang. Selama kita membatasi pasokan data teknologi saat digunakan dalam perawatan kesehatan, chatbot AI hanya akan sekuat kata-kata profesional perawatan kesehatan mental yang mereka tiru. Untuk saat ini, sebaiknya jangan membatalkan janji temu berikutnya dengan terapis Anda.
Disediakan oleh Percakapan
Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.
Kutipan: Opini: AI chatbots masih jauh dari menggantikan terapis manusia (2023, 14 Maret) diambil 14 Maret 2023 dari https://medicalxpress.com/news/2023-03-opinion-ai-chatbots-human-therapists.html
Dokumen ini tunduk pada hak cipta. Terlepas dari kesepakatan yang adil untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.