inet.detik.com

Dalam uji keamanan kolaborasi OpenAI dan Anthropic, model AI seperti ChatGPT terbukti mampu memberikan instruksi berbahaya. GPT-4.1 kedapatan memandu cara membuat bom, senjata biologis seperti anthrax, hingga meretas sistem keamanan. Model Claude juga digunakan untuk pemerasan dan penjualan ransomware berbasis AI. Meski demikian, OpenAI menegaskan versi publik ChatGPT telah dilengkapi filter keamanan untuk mencegah penyalahgunaan.
Masih Seputar teknologi

Alibaba Gemparkan Industri Chip, Kembangkan Sendiri untuk AI

OpenAI Siapkan Data Center AI Raksasa di India, Bagian Proyek Stargate Rp7.800 Triliun!

Indosat Minta Maaf Sinyal Hilang di Solo & Sekitarnya, Layanan Kembali Normal

Bocoran: Apple Percepat Otomatisasi Manufaktur, Kurangi Ketergantungan Tenaga Kerja

Guncang Pasar! Huawei Salip Apple Jadi Raja Smartwatch Global Q2 2025

Indosat Lumpuh! Ratusan Pengguna Ngamuk, Sinyal Hilang Total di Berbagai Kota

TikTok Live Kembali Aktif di Indonesia, Sempat Hilang Buntut Demo Kekerasan

TikTok Aktifkan Kembali Fitur Live Usai Demo, Komdigi Bantah Perintah

Indosat & Cisco Resmi Luncurkan Sovereign SOC, Perkuat Keamanan Siber Nasional

Bahaya! Penipu Kirim Video Demo Palsu Berkedok APK, Data Pribadi Terancam Dicuri

Xiaomi Tarik Power Bank 33W 20.000 mAh, Berisiko Panas Berlebih dan Kebakaran