Sebut 'serangan distilasi' mengaburkan teknik biasa dengan penyalahgunaan API
Nathan Lambert resah pada satu istilah. Saat sebuah lab menuduh pesaing melakukan "serangan distilasi", pelanggaran yang dimaksud biasanya jailbreaking, pemalsuan identitas, atau penyalahgunaan API lain yang melanggar ketentuan layanan. Distilasi sendiri, yaitu melatih model kecil dari output model yang lebih kuat, adalah praktik lumrah di seluruh lapangan. Inti tulisannya: menggabungkan keduanya dalam satu label menakutkan merusak teknik yang berguna lewat asosiasi, dan kerusakan itu sulit dibalik begitu makna katanya bergeser.
Ia menopang argumen dengan kasus konkret. olmOCR dibangun memakai data sintetis dari model GPT untuk melatih pengubah PDF ke teks, lalu outputnya melatih model berikutnya, sehingga atribusi kabur setelah satu atau dua langkah. Saat sengketa Musk dengan OpenAI, tulisnya, terungkap bahwa perusahaan AI umumnya saling mendistilasi, dan xAI mengakui sebagian distilasi dari OpenAI. Yang layak ditertibkan adalah penyalahgunaan API, bukan metodenya.
Argumennya sempit, dan justru di situ kekuatannya. Lambert tidak membela pencurian data; ia meminta orang menyebut pelanggaran yang sebenarnya, bukan menimpakan kesalahan pada sebuah metode.
Kenapa ini penting
Kalau kamu melatih model, bahasa yang dipakai pesaing dan regulator sekarang akan menentukan apa yang dianggap sah nanti: tolak framing "serangan distilasi" dan minta keluhannya diarahkan ke pelanggaran akses, atau teknik standar bisa diam-diam dicap mencurigakan.