RADARBONANG.ID – Pemerintah Kanada meningkatkan tekanan terhadap perusahaan teknologi OpenAI menyusul tragedi penembakan massal di Tumbler Ridge, British Columbia.
Insiden tersebut memicu perdebatan luas mengenai tanggung jawab platform kecerdasan buatan, khususnya terkait moderasi konten dan pelaporan aktivitas berisiko.
Sejumlah pejabat Kanada dilaporkan memanggil pimpinan OpenAI ke ibu kota, Ottawa, untuk meminta klarifikasi mengenai protokol keamanan pada layanan ChatGPT.
Pemerintah ingin mengetahui secara rinci bagaimana perusahaan menangani akun yang terindikasi berisiko serta kapan keputusan pelaporan ke aparat penegak hukum dilakukan.
Akun Sempat Diblokir, Tapi Tak Dilaporkan
Sorotan muncul setelah diketahui bahwa akun ChatGPT milik tersangka, Jesse Van Rootselaar (18), sempat diblokir beberapa bulan sebelum tragedi terjadi.
OpenAI disebut telah menandai aktivitas akun tersebut sebagai berisiko.
Namun perusahaan menilai tidak ada indikasi ancaman kekerasan yang bersifat segera, sehingga tidak memenuhi ambang batas pelaporan ke pihak kepolisian.
Keputusan itu kini dipertanyakan, setelah pada 10 Februari lalu tersangka melakukan aksi penembakan yang menewaskan sembilan orang, termasuk dirinya sendiri.
Peristiwa tragis tersebut mengguncang komunitas lokal dan memicu desakan agar perusahaan teknologi lebih proaktif dalam mencegah potensi ancaman.
Menteri Kehakiman Kanada menyatakan pemerintah mengharapkan perubahan nyata dari perusahaan teknologi, termasuk OpenAI.
Jika langkah perbaikan dinilai tidak memadai, parlemen disebut mempertimbangkan penyusunan regulasi baru untuk memperketat pengawasan terhadap platform berbasis AI.
Dilema Moderasi dan Privasi
Kasus ini menyoroti dilema kompleks yang dihadapi perusahaan teknologi global. Di satu sisi, ada tuntutan publik agar platform segera melaporkan aktivitas mencurigakan demi mencegah kekerasan.
Di sisi lain, pelaporan tanpa dasar ancaman yang jelas berisiko melanggar privasi pengguna dan berpotensi merugikan individu yang sebenarnya tidak memiliki niat kriminal.
Pemerintah Kanada menilai keterlambatan pelibatan polisi dalam kasus ini mengganggu proses pencegahan.
Ottawa ingin memahami secara detail bagaimana mekanisme internal OpenAI dalam menilai risiko, siapa yang mengambil keputusan, serta apakah ada standar global yang diterapkan.
Sejumlah pakar keamanan digital menilai kegagalan melapor bisa dianggap sebagai “kesempatan yang terlewat.”
Namun mereka juga mengingatkan bahwa garis antara kebebasan berekspresi, privasi, dan pencegahan kejahatan bukanlah batas yang mudah ditentukan.
Investigasi Masih Berjalan
Hingga kini, Royal Canadian Mounted Police masih melakukan penyelidikan mendalam terkait motif dan kronologi penembakan tersebut.
Aparat juga berupaya menelusuri jejak digital tersangka guna mengetahui sejauh mana interaksinya dengan platform daring.
OpenAI menyatakan siap bekerja sama penuh dengan otoritas Kanada. Perusahaan tersebut juga berjanji akan mengevaluasi kebijakan moderasi serta mengumumkan langkah-langkah keamanan tambahan dalam waktu dekat.
Kasus ini menjadi ujian besar bagi industri kecerdasan buatan secara global. Seiring semakin canggihnya teknologi AI, tuntutan terhadap transparansi, akuntabilitas, dan sistem mitigasi risiko pun semakin tinggi.
Tragedi di British Columbia tak hanya menyisakan duka, tetapi juga memicu pertanyaan mendasar: sejauh mana tanggung jawab platform AI dalam mencegah tindakan kekerasan di dunia nyata? Jawaban atas pertanyaan ini kemungkinan akan membentuk arah regulasi teknologi di masa depan. (*)
Editor : Muhammad Azlan Syah