RADARBONANG.ID- Data telah menjadi sumber daya yang sangat penting dalam pengembangan kecerdasan buatan (AI). Naumun, karena terbatasnya sumber data yang tersedia, banyak perusahaan besar di bidang teknologi mulai memanfaatkan data pribadi pengguna sebagai bahan untuk melatih model AI mereka.
Komisi Perdagangan Amerika Serikat (FTC) mengingatkan masyarakat untuk berhati-hati. Pasalnya, perubahan kebijakan privasi bisa saja dilakukan secara diam-diam oleh perusahaan teknologi. Godaan untuk memanfaatkan data pengguna guna menyempurnakan kemampuan AI sangat besar.
Menggunakan data pribadi sebagai bahan pelatihan AI tanpa izin jelas melanggar hukum. Untuk menghindari pelanggaran, beberapa perusahaan diduga sengaja mengubah kebijakan privasi tanpa banyak publikasi. Sehingga pengguna sering kali tidak menyadarinya.
Praktik ini dinilai tidak adil dan dapat dianggap menipu, terutama jika perusahaan terus membagikan data pengguna tanpa persetujuan mereka. Namun, menurut seorang analis dari The New York Times, situasi ini sudah menjadi rahasia umum di industri teknologi.
Sebagai contoh, pada Juli lalu, Google mengubah kebijakan privasinya. Perusahaan menyatakan akan memanfaatkan informasi yang tersedia secara publik untuk melatih model AI seperti Bard (sekarang Gemini), Google Translate, dan layanan lainnya.
Meskipun demikian, Google membantah tuduhan bahwa perubahan tersebut bertujuan untuk memperluas akses terhadap data pengguna, melainkan hanya untuk memperjelas kebijakan terkait layanan Google Gemini.
Adobe juga menghadapi kritik serupa. Perusahaan ini mendapat protes keras, bahkan aksi boikot, terkait kebijakan yang memungkinkan mereka mengakses dan mengklaim kepemilikan atas konten yang dibuat oleh pelanggan menggunakan Creative Suite.
Kebijakan ini ditujukan untuk mendukung pengembangan AI Adobe. Ironisnya, pelanggan tidak dapat melanjutkan proyek mereka tanpa menyetujui ketentuan baru tersebut. Situasi ini memaksa Adobe memberikan klarifikasi untuk meredakan ketegangan akibat langkah kontroversial tersebut.
Perkembangan kecerdasan buatan memang menimbulkan kekhawatiran terhadap keamanan data pribadi pengguna. Untuk mengatasi masalah ini, pengembang AI mulai mengedepankan privasi melalui pendekatan seperti pemrosesan offline, di mana data diproses langsung pada perangkat pengguna tanpa melalui server cloud.(*)