Pemerintah Amerika Serikat menciptakan panduan utama untuk penerapan kecerdasan buatan (AI) generatif yang aman. Institut Standar dan Teknologi Nasional (NIST) Departemen Perdagangan mengatakan pihaknya sedang mencari masukan dari publik. Pada 2 Februari 2024, akan dilakukan pengujian untuk memastikan keamanan sistem AI. Menteri Perdagangan Gina Raimondo mengatakan upaya ini dipicu oleh perintah eksekutif Presiden Joe Biden pada Oktober lalu mengenai AI yang bertujuan untuk mengembangkan standar industri seputar keselamatan, keamanan, dan kepercayaan AI. Dengan cara tersebut, Amerika Serikat (AS) diharapkan bisa terus memimpin dunia dalam pengembangan dan penggunaan AI yang bertanggung jawab di tengah gempuran teknologi yang berkembang pesat. Badan ini sedang mengembangkan pedoman untuk mengevaluasi AI, memfasilitasi pengembangan standar, dan menyediakan lingkungan pengujian untuk mengevaluasi sistem AI. Permintaan tersebut meminta masukan dari perusahaan AI dan masyarakat mengenai manajemen risiko AI generatif dan mengurangi risiko misinformasi yang dihasilkan AI, demikian dikutip dari Reuters, Rabu (20/12/2023). AI generatif yang dapat membuat teks, foto, dan video sebagai respons terhadap permintaan terbuka, telah memicu ketakutan. Masyarakat khawatir AI dapat berdampak pada hilangnya pekerjaan, mengacaukan pemilu, berpotensi mengalahkan manusia, serta menimbulkan dampak bencana. Perintah Biden mengarahkan lembaga-lembaga untuk menetapkan standar pengujian dan mengatasi risiko kimia, biologi, radiologi, nuklir, dan keamanan siber terkait. NIST sedang berupaya menetapkan pedoman untuk pengujian, termasuk apa yang disebut “tim merah” akan paling bermanfaat untuk penilaian dan manajemen risiko AI serta menetapkan praktik terbaik untuk melakukan hal tersebut. Tim merah eksternal telah digunakan selama bertahun-tahun dalam keamanan siber untuk mengidentifikasi risiko-risiko baru, dengan mengacu pada simulasi Perang Dingin AS di mana musuh diistilahkan sebagai “tim merah”. Pada bulan Agustus, “tim merah” mendapat penilaian publik AS pertama yang diadakan pada konferensi keamanan siber besar dan diselenggarakan oleh AI Village, SeedAI, Humane Intelligence. Ribuan peserta mencoba untuk melihat apakah mereka dapat membuat sistem menghasilkan keluaran yang tidak diinginkan atau gagal, dengan tujuan untuk lebih memahami risiko yang ditimbulkan oleh sistem ini. Acara tersebut menunjukkan bagaimana kerja sama eksternal dapat menjadi alat yang efektif untuk mengidentifikasi risiko baru AI.