← semua berita

OLMo 2 32B: Model Sepenuhnya Terbuka Menyusul yang Tertutup

AI · · 1 tahun lalu · sumber (allenai.org)

Allen Institute for AI merilis OLMo 2 32B pada Maret 2025 dengan klaim spesifik: ini model sepenuhnya terbuka pertama yang mengungguli GPT-3.5 Turbo dan GPT-4o mini pada benchmark akademik. Sepenuhnya terbuka di sini lebih ketat daripada sekadar bobot terbuka. Ai2 merilis bobot, data training, kode, dan resepnya, sehingga hasilnya bisa direproduksi, bukan hanya dipakai. Model ini dilatih dengan sekitar 6 triliun token, kira-kira 3,9 triliun di pretraining ditambah tahap mid-training 843 miliar token pada campuran data yang dikurasi. Angka yang patut dicatat adalah biayanya. Ai2 menyebut OLMo 2 32B mencapai performa setara Qwen 2.5 32B sambil memakai sekitar sepertiga compute training, dan melaporkan throughput di atas 1.800 token per detik per GPU pada sekitar 38 persen utilisasi FLOP model di cluster trainingnya. Model ini juga mendekati Qwen 2.5 72B dan Llama 3.1 70B yang lebih besar.

Kenapa ini penting

Kalau kamu peduli pada AI yang bisa direproduksi, bukan sekadar bobot yang bisa diunduh, inilah titik saat sains sepenuhnya terbuka mencapai kelas yang benar-benar bisa dipakai, dan dengan murah. Bagi peneliti artinya kamu bisa mempelajari model yang kompetitif dari ujung ke ujung, termasuk datanya, alih-alih menyelidik kotak hitam.

Open ModelsAllen Institute