RADARBONANG.ID – Regulator privasi di Kanada menemukan dugaan pelanggaran serius dalam cara OpenAI mengembangkan dan melatih ChatGPT pada tahap awal peluncurannya.
Temuan tersebut disampaikan langsung oleh Komisioner Privasi Kanada, Philippe Dufresne, bersama regulator privasi dari Quebec, British Columbia, dan Alberta.
Dalam investigasi gabungan, regulator menyebut OpenAI tidak sepenuhnya mematuhi sejumlah aturan privasi federal maupun provinsi di Kanada.
Baca Juga: Dompet Makin Sepi, Transaksi Makin Ramai: Fenomena Non Tunai Jadi Gaya Hidup Baru Masyarakat Digital
Salah satu aturan yang disorot adalah PIPEDA atau Undang-Undang Perlindungan Informasi Pribadi dan Dokumen Elektronik Kanada.
OpenAI Disebut Kumpulkan Data Terlalu Banyak
Regulator menemukan beberapa persoalan utama terkait pengumpulan data pengguna untuk pelatihan AI.
Di antaranya meliputi:
- pengumpulan data pribadi secara berlebihan,
- minimnya persetujuan pengguna,
- hingga kurangnya transparansi soal penggunaan data untuk pelatihan AI.
Selain itu, regulator juga menilai OpenAI belum memiliki perlindungan memadai agar informasi pribadi tidak ikut digunakan untuk melatih sistem AI.
Pengguna disebut tidak memiliki akses yang cukup untuk:
- melihat data pribadi yang digunakan,
- memperbaiki informasi yang salah,
- maupun menghapus data mereka dari sistem.
Hal ini dinilai menjadi salah satu kelemahan besar dalam pengelolaan privasi AI generatif.
ChatGPT Dinilai Berpotensi Sebarkan Informasi Tidak Akurat
Masalah lain yang turut disorot regulator adalah potensi ketidakakuratan jawaban ChatGPT terkait informasi pribadi seseorang.
Menurut regulator Kanada, OpenAI dinilai belum memiliki mekanisme akuntabilitas yang cukup kuat untuk menangani persoalan tersebut.
Dalam beberapa kasus, AI generatif memang diketahui dapat menghasilkan informasi yang salah atau tidak akurat tentang seseorang.
Kondisi ini menjadi perhatian serius karena dapat berdampak pada reputasi maupun privasi individu.
OpenAI Mulai Lakukan Perubahan
Meski menemukan sejumlah pelanggaran, regulator menyebut OpenAI bersikap kooperatif selama proses investigasi berlangsung.
Perusahaan kini disebut telah menghentikan penggunaan model lama yang dianggap melanggar aturan privasi Kanada.
Selain itu, OpenAI mulai menerapkan sistem penyaringan untuk menyembunyikan informasi sensitif seperti nama dan nomor telepon dari data pelatihan AI.
Dalam beberapa bulan ke depan, perusahaan juga berjanji akan menghadirkan sejumlah pembaruan, seperti:
- peringatan baru di ChatGPT agar pengguna tidak membagikan data sensitif,
- alat ekspor data pengguna yang lebih jelas,
- proses koreksi informasi yang lebih mudah,
- hingga perlindungan tambahan untuk kerabat di bawah umur dari tokoh publik.
Langkah tersebut dinilai sebagai upaya memperkuat transparansi dan perlindungan privasi pengguna AI.
Kasus Ini Jadi Sorotan Besar
Kasus ini semakin mendapat perhatian setelah nama OpenAI sempat dikaitkan dengan penembakan massal di Tumbler Ridge pada Februari 2026.
Menurut laporan regulator, OpenAI disebut pernah mendeteksi akun pelaku yang mengandung indikasi kekerasan sejak 2025.
Namun, informasi tersebut tidak dilaporkan kepada aparat penegak hukum Kanada.
Meski belum ada bukti bahwa ChatGPT terlibat langsung dalam insiden tersebut, kasus ini memicu perdebatan besar soal tanggung jawab perusahaan AI terhadap aktivitas pengguna.
Baca Juga: Dirjen Bea Cukai Terseret Dugaan Kasus Suap, Purbaya Tegaskan Tidak Otomatis Langsung Diberhentikan
Regulasi AI Makin Jadi Perhatian Dunia
Kasus yang melibatkan OpenAI ini menunjukkan bahwa regulasi AI kini menjadi perhatian serius di berbagai negara.
Seiring semakin populernya teknologi AI generatif, isu privasi, keamanan data, dan transparansi penggunaan informasi pribadi mulai menjadi sorotan utama.
Banyak pemerintah kini mulai memperketat aturan terkait pengembangan AI agar teknologi tersebut tidak berkembang tanpa pengawasan yang jelas.
Dan menariknya, kasus di Kanada ini bisa menjadi salah satu contoh penting bagaimana perusahaan AI global mulai menghadapi tekanan regulasi yang semakin besar di masa depan. (*)
Editor : Muhammad Azlan Syah