pawsomestamps.com – China telah mengusulkan aturan ketat bagi kecerdasan buatan (AI) untuk melindungi anak-anak dan mencegah penggunaan chatbot yang dapat berpotensi membahayakan. Usulan ini muncul seiring dengan meningkatnya jumlah chatbot yang diluncurkan secara global. Aturan ini diperkenalkan oleh Administrasi Ruang Siber China (CAC) untuk mengatur dengan lebih baik produk dan layanan AI, yang selama ini menuai kritik terkait isu keamanan.
Dalam draf peraturan yang diterbitkan baru-baru ini, perusahaan pengembang AI diwajibkan untuk memastikan bahwa model mereka tidak menyebarkan konten yang dapat memicu tindakan melukai diri sendiri, serta menghindari promosi perjudian. Aturan ini mencakup langkah-langkah perlindungan yang mewajibkan penyedia AI untuk menawarkan pengaturan yang disesuaikan, membatasi waktu penggunaan, dan mendapatkan persetujuan dari wali sebelum memberikan layanan pendampingan emosional.
Salah satu aspek penting dari peraturan tersebut adalah kewajiban bagi operator chatbot untuk menyerahkan kontrol percakapan yang berkaitan dengan bunuh diri kepada manusia. Ini bertujuan untuk menjaga keselamatan pengguna dengan memastikan bahwa situasi kritis ditangani oleh tenaga profesional. Selain itu, mereka juga harus segera melaporkan situasi tersebut kepada wali atau kontak darurat pengguna.
Rencana ini diharapkan dapat menjadi langkah signifikan dalam mengatasi risiko yang ditimbulkan oleh teknologi AI, terutama bagi kelompok rentan seperti anak-anak. Setelah proses finalisasi, aturan ini akan diberlakukan di seluruh China, mencerminkan komitmen pemerintah untuk memastikan penggunaan teknologi yang aman dan bertanggung jawab.