Kategori Berita
Daerah
Layanan
Detik Network
detikInet
OpenAI Cari Orang yang Bisa Lindungi Manusia dari Ancaman AI, Bakal Digaji Rp 9,3 Miliar

OpenAI Cari Orang yang Bisa Lindungi Manusia dari Ancaman AI, Bakal Digaji Rp 9,3 Miliar


Virgina Maulita Putri - detikInet

London, UK - 05 03 2025: Apple iPhone screen with Artificial Intelligence icons internet AI app application ChatGPT, DeepSeek, Gemini, Copilot, Grok, Claude, etc.
Foto: Getty Images/alexsl
Jakarta -

OpenAI, perusahaan induk ChatGPT, membuka lowongan eksekutif baru untuk posisi Head of Preparedness. Posisi ini akan bertugas mempelajari berbagai risiko bahaya terkait AI, mulai dari keamanan siber sampai kesehatan mental.

Dalam postingannya di Twitter/X, CEO OpenAI Sam Altman mengatakan model AI mulai menghadapi sejumlah tantangan krusial, termasuk potensi dampak terhadap kesehatan mental sampai model yang sangat jago dalam keamanan komputer dan bisa menemukan kerentanan kritis.

Head of Preparedness di OpenAI nantinya akan bertanggung jawab langsung untuk melindungi umat manusia dari ancaman AI yang semakin berbahaya terhadap kesehatan mental, keamanan siber, dan senjata biologis.

SCROLL TO CONTINUE WITH CONTENT

Kandidat yang berhasil diterima juga harus memikirkan kemungkinan bahwa AI bisa melatih diri sendiri di tengah kekhawatiran dari beberapa ahli bahwa AI dapat berbalik melawan manusia.

ADVERTISEMENT

"Ini akan menjadi pekerjaan yang penuh tekanan, dan Anda akan langsung terjun ke dalam situasi yang sulit," tulis Altman dalam postingannya seperti dikutip dari The Guardian, Selasa (30/12/2025).

Menurut lowongan pekerjaan di website OpenAI, Head of Preparedness akan menerima gaji sebesar USD 555.000 (sekitar Rp 9,3 miliar) per tahun plus saham, tapi tidak disebutkan berapa persen yang akan diterima.

Eksekutif ini akan memimpin strategi dan eksekusi kerangka kerja kesiapan OpenAI yang menjelaskan pendekatan perusahaan untuk melacak dan mempersiapkan kemampuan mutakhir yang dapat menciptakan risiko baru berupa bahaya serius.

OpenAI pertama kali mengumumkan dibentuknya tim kesiapan pada tahun 2023. Tim ini akan bertanggung jawab untuk mempelajari potensi risiko berbahaya yang ditimbulkan oleh AI, seperti serangan phishing hingga ancaman senjata nuklir.

Kurang dari setahun kemudian, mantan Head of Preparedness OpenAI Aleksander Madry dipindah ke posisi lain yang fokus kepada penalaran AI. Posisi ini kemudian diambil alih oleh Quinonero Candela dan Lilian Weng, tapi Candela kemudian pindah ke tim lain di OpenAI dan Weng meninggalkan OpenAI.




(vmp/rns)







Hide Ads