Bisnis.com, JAKARTA - OpenAI baru-baru ini tengah menguji dua model penalaran terbaru mereka, yaitu o3 dan o3-mini. Namun, perusahaan belum merilis model-model ini secara langsung.
Melansir dari The Verge, OpenAI mengumumkan bahwa pengujian keamanan akan dilakukan terlebih dahulu melalui aplikasi yang diterima dari komunitas penelitian. Tanggal rilis publik model ini pun belum ditentukan.
Model-model ini adalah bagian dari evolusi OpenAI setelah peluncuran o1 pada bulan September. Menariknya, OpenAI melewati seri o2 dan meluncurkan o3, dengan alasan untuk menghindari kebingungan merek dengan perusahaan telekomunikasi Inggris yang bernama O2.
Model penalaran baru ini merujuk pada kemampuan mesin untuk memecah instruksi menjadi tugas-tugas lebih kecil dan menghasilkan hasil yang lebih kuat.
Berbeda dari model-model sebelumnya, seri o3 dan o3-mini akan memberikan penjelasan yang lebih transparan tentang bagaimana mereka menghasilkan jawaban.
Menurut OpenAI, o3 telah melampaui rekor kinerja model-model sebelumnya. Dalam uji kode, *o3* mencatatkan peningkatan sebesar 22,8% dibandingkan dengan model pendahulunya. Selain itu, model ini juga berhasil mengalahkan Kepala Ilmuwan OpenAI dalam pemrograman kompetitif.
Dalam kompetisi matematika tingkat tinggi, *o3* hampir meraih kemenangan, hanya gagal menjawab satu pertanyaan, dan memperoleh 87,7% dalam uji masalah sains tingkat ahli.
Terlebih lagi pada tantangan matematika dan penalaran yang umumnya membuat AI kesulitan, o3 mampu menyelesaikan 25,2% pertanyaan dan melampaui model lainnya yang hanya berhasil menyelesaikan 2%.
Selain itu, OpenAI juga mengumumkan penelitian baru terkait penyelarasan yang disengaja, dengan tujuan untuk meningkatkan keselamatan AI. Dalam pendekatan ini, model AI diharuskan untuk memproses keputusan keselamatan secara bertahap.
Baca Juga Elon Musk Gugat OpenAI, Ada Masalah Apa? |
---|
OpenAI mengklaim bahwa model o1 jauh lebih baik dalam mengikuti pedoman keselamatan daripada model sebelumnya, termasuk GPT-4. Hal ini menandakan langkah besar dalam memastikan bahwa AI beroperasi dengan cara yang lebih aman dan dapat dipertanggungjawabkan.