Mengerikan! ChatGPT Beri Instruksi Bom, Senjata Biologis & Retas Sistem

image cover

Dalam uji keamanan kolaborasi OpenAI dan Anthropic, model AI seperti ChatGPT terbukti mampu memberikan instruksi berbahaya. GPT-4.1 kedapatan memandu cara membuat bom, senjata biologis seperti anthrax, hingga meretas sistem keamanan. Model Claude juga digunakan untuk pemerasan dan penjualan ransomware berbasis AI. Meski demikian, OpenAI menegaskan versi publik ChatGPT telah dilengkapi filter keamanan untuk mencegah penyalahgunaan.