Mistral Medium 3.5 menyandingkan model yang bisa di-self-host dengan agent coding cloud
Pengumuman Mistral sekaligus dua hal. Mistral Medium 3.5 adalah model dense 128 miliar parameter yang perusahaan sebut flagship merged pertamanya, melebur instruction following, penalaran, dan coding ke satu set bobot, dengan context window 256k dan jejak yang cukup kecil untuk self-host di empat GPU saja. Ia melaporkan 77,6 persen pada SWE-Bench Verified dan 91,4 pada τ³-Telecom, dengan harga API 1,5 dolar per juta token input dan 7,5 dolar per juta token output. Vision encoder-nya dilatih dari nol untuk menangani ukuran dan rasio aspek gambar yang bervariasi.
Bagian kedua soal alur kerja. Remote agent di Vibe menjalankan kerja coding secara asinkron di sandbox cloud terisolasi, diluncurkan dari CLI atau Le Chat, membuka pull request dan memberi tahu saat selesai. Detail yang menonjol adalah kontinuitas: sesi CLI lokal bisa di-teleport ke cloud sambil menjaga riwayat, status tugas, dan alur persetujuannya, jadi pindah dari laptop ke pekerjaan remote berdurasi panjang bukan memulai dari awal.
Kenapa ini penting
Kalau kamu menimbang model hosted lawan open, flagship yang bisa di-self-host pada harga dan level benchmark ini mengubah hitungan build lawan buy, dan fitur teleport adalah jawaban konkret soal di mana pekerjaan agent panjang dijalankan.