Altman: ChatGPT Tak Miliki Kerahasiaan Terapis

CEO OpenAI, Sam Altman, memperingatkan pengguna ChatGPT untuk tidak menggunakan layanan AI sebagai pengganti terapis. Altman menegaskan bahwa percakapan dengan ChatGPT tidak memiliki perlindungan kerahasiaan seperti yang berlaku dalam hubungan dokter-pasien.
Pernyataan ini disampaikan Altman saat menjadi bintang tamu di podcast "This Past Weekend w/ Theo Von" baru-baru ini. Ia menyoroti kekosongan hukum dan kebijakan terkait privasi data pengguna yang berinteraksi dengan ChatGPT.
Menurut Altman, banyak pengguna, khususnya generasi muda, yang menceritakan masalah pribadi paling sensitif kepada ChatGPT, mulai dari masalah kesehatan mental hingga persoalan hubungan asmara, tanpa menyadari risiko privasinya.
Kekosongan Hukum Privasi AI
Sistem hukum saat ini belum mengakomodasi perlindungan kerahasiaan bagi percakapan antara manusia dan kecerdasan buatan. Altman menjelaskan bahwa percakapan dengan terapis, pengacara, atau dokter memiliki perlindungan hukum berupa kerahasiaan profesional, namun konsep serupa belum ada untuk interaksi dengan AI.
Permasalahan ini menjadi semakin krusial mengingat jutaan pengguna ChatGPT secara terbuka mendiskusikan hal-hal sangat pribadi dengan aplikasi tersebut. "Orang-orang menggunakannya—terutama anak muda—sebagai terapis, pelatih kehidupan; membicarakan masalah hubungan dan bertanya 'apa yang harus saya lakukan?'" ujar Altman.
Ketiadaan perlindungan hukum ini juga berarti bahwa dalam kasus tuntutan hukum, OpenAI dapat diwajibkan untuk menyerahkan catatan percakapan pengguna dengan ChatGPT. Hal ini tentu menjadi ancaman serius terhadap privasi informasi sensitif yang telah dibagikan pengguna.
Altman sendiri mengakui bahwa situasi ini "sangat kacau" dan berpendapat bahwa seharusnya ada konsep privasi yang sama untuk percakapan dengan AI seperti yang berlaku dengan terapis atau profesional lainnya.
Kekhawatiran ini muncul bersamaan dengan meningkatnya penggunaan ChatGPT sebagai sarana konseling informal oleh banyak orang yang mungkin tidak memiliki akses atau tidak mampu membayar layanan kesehatan mental profesional.
Tantangan Hukum dan Regulasi
OpenAI saat ini tengah berjuang menghadapi perintah pengadilan dalam gugatan dengan The New York Times, yang mengharuskan perusahaan menyimpan percakapan ratusan juta pengguna ChatGPT secara global, kecuali pelanggan ChatGPT Enterprise.
Dalam pernyataan di situs webnya, OpenAI menyatakan sedang mengajukan banding terhadap perintah ini, yang mereka sebut sebagai "pelampauan batas." Jika pengadilan dapat mengesampingkan keputusan OpenAI mengenai privasi data, hal ini dapat membuka perusahaan terhadap tuntutan lebih lanjut untuk penemuan hukum atau keperluan penegakan hukum.
Perusahaan teknologi saat ini secara rutin menerima panggilan pengadilan untuk data pengguna guna membantu penuntutan pidana. Namun, dalam beberapa tahun terakhir, muncul kekhawatiran tambahan tentang data digital seiring dengan undang-undang yang mulai membatasi akses ke kebebasan yang sebelumnya telah mapan.
Contohnya, ketika Mahkamah Agung Amerika Serikat membatalkan putusan Roe v. Wade, banyak pengguna beralih ke aplikasi pelacak menstruasi yang lebih privat atau ke Apple Health, yang mengenkripsi catatan mereka, untuk menghindari risiko data pribadi mereka digunakan dalam penuntutan terkait aborsi.
Dalam konteks yang lebih luas, kasus ini menunjukkan betapa industri AI masih berada dalam fase awal penentuan standar etika dan hukum yang tepat untuk melindungi pengguna.
Implikasi untuk Masa Depan AI
Pernyataan Altman mencerminkan kesadaran industri AI terhadap tantangan etika dan hukum yang belum terselesaikan. Kekosongan regulasi ini bisa menjadi hambatan serius bagi adopsi AI yang lebih luas, terutama untuk kasus penggunaan yang sensitif seperti konseling kesehatan mental.
Dalam jangka panjang, industri AI dan pembuat kebijakan perlu bekerja sama untuk menciptakan kerangka hukum yang jelas tentang privasi dalam interaksi manusia-AI, termasuk kemungkinan hak istimewa komunikasi yang serupa dengan yang dimiliki profesional kesehatan mental atau hukum.
Sampai kerangka hukum semacam itu ada, pengguna ChatGPT dan platform AI serupa perlu berhati-hati dengan informasi pribadi yang mereka bagikan, dan mungkin tetap mencari bantuan profesional untuk masalah kesehatan mental dan emosional yang serius.
(Burung Hantu Infratek / Berbagai Sumber)
