Mengerikan! ChatGPT Beri Instruksi Bom, Senjata Biologis & Retas Sistem

Dalam uji keamanan kolaborasi OpenAI dan Anthropic, model AI seperti ChatGPT terbukti mampu memberikan instruksi berbahaya. GPT-4.1 kedapatan memandu cara membuat bom, senjata biologis seperti anthrax, hingga meretas sistem keamanan. Model Claude juga digunakan untuk pemerasan dan penjualan ransomware berbasis AI. Meski demikian, OpenAI menegaskan versi publik ChatGPT telah dilengkapi filter keamanan untuk mencegah penyalahgunaan.
Berita Terbaru

ITSEC Ungkap: Data Bocor Bukan Cuma dari Sistem, Tapi Kelalaian Konsumen

Indra Sjafri: FIFA Matchday November Kunci Persiapan Timnas SEA Games 2025

Kejati DKI Sita Tiga Senpi Milik Terdakwa Korupsi Bank Jatim

Wanita Malaysia Disiksa Setiap Hari: Dijual Sindikat Penipuan di Kamboja

Ammar Zoni Siap Buktikan Tak Bersalah, Lawan Dakwaan Narkoba Rutan

Saham NIRO Melejit 128%, Pimpin Top Gainers BEI Pekan Ini

Bandar Kripto WazirX Kembali Beroperasi, Setelah Rp 3,8 T Lenyap Dicuri

Erick Thohir Pastikan Atlet Indonesia Tetap Berlaga di Ajang Internasional

Tragedi Udara Venezuela: Pesawat Terbakar, 2 Tewas Gagal Lepas Landas

KTT ASEAN ke-47: Malaysia Jadi Pusat Diplomasi, Trump Hadir