OpenAI baru-baru ini mengumumkan penyesuaian struktural internal, dan Alexander Madrid, direktur keamanan kecerdasan buatan, dipindahkan ke posisi baru yang berfokus pada penalaran kecerdasan buatan. Penyesuaian ini bukan merupakan penurunan pangkat, namun mencerminkan pengakuan OpenAI atas kemampuan Madrid dan penekanannya pada penelitian di bidang penalaran kecerdasan buatan. CEO Sam Altman mengakui penunjukan tersebut di media sosial, mencatat bahwa Madrid akan terlibat dalam proyek penelitian baru dan penting. Langkah ini menarik perhatian industri dan juga menandai arah strategis OpenAI dalam pengembangan kemampuan keamanan dan penalaran AI.
OpenAI mengumumkan rencana restrukturisasi internal pada hari Selasa. Menurut pengumuman CEO perusahaan Sam Altman di platform media sosial
Altmann memuji pekerjaan Madrid dalam sebuah tweet, mengatakan dia sedang mengerjakan proyek penelitian baru dan sangat penting. Transfer ini tidak hanya mencerminkan pengakuan perusahaan terhadap kemampuan Madrid, namun juga menyoroti penekanan OpenAI pada penelitian di bidang penalaran kecerdasan buatan.
Selama transfer mereka ke Madrid, eksekutif OpenAI Joaquin Quinonero Candela dan Lilian Weng akan bersama-sama mengambil alih tim Kesiapsiagaan. Tim ini terutama bertanggung jawab untuk mengidentifikasi risiko-risiko baru dalam model-model mutakhir dan melakukan penilaian keselamatan untuk mengurangi risiko-risiko bencana yang mungkin ditimbulkan oleh kecerdasan buatan.
Perlu dicatat bahwa meskipun fokus Madrid telah bergeser, pejabat OpenAI menyatakan bahwa mereka akan terus berpartisipasi dalam pekerjaan inti keamanan kecerdasan buatan. Selain memegang posisi senior di OpenAI, Madrid juga menjabat sebagai direktur Center for Deployable Machine Learning di MIT dan salah satu dosen yang memimpin Forum Kebijakan Kecerdasan Buatan MIT. Pengalaman dan keahliannya yang kaya diharapkan dapat membawa terobosan baru pada penelitian penalaran kecerdasan buatan OpenAI.
Reorganisasi ini mencerminkan bahwa OpenAI secara aktif mendorong pengembangan kemampuan penalaran kecerdasan buatan sambil mempertahankan penelitian keamanan AI. Orang dalam industri umumnya percaya bahwa penyesuaian strategis ini akan membantu OpenAI mempertahankan posisi terdepan dalam bidang kecerdasan buatan yang sangat kompetitif.
Langkah OpenAI menunjukkan bahwa mereka mencari keseimbangan antara pengembangan keamanan kecerdasan buatan dan kemampuan penalaran, dan akan terus memperhatikan potensi risiko kecerdasan buatan sambil secara aktif mengeksplorasi kemungkinan kecerdasan buatan di masa depan. Penyesuaian strategis ini akan berdampak besar pada industri kecerdasan buatan dan patut mendapat perhatian terus-menerus.