Pelajaran Pahit yang Terus Diulang Riset AI
Esai pendek Richard Sutton dari 2019 ini cuma punya satu klaim, dan ia membuktikannya dengan tujuh dekade sejarah AI. Di permainan papan, pengenalan suara, sampai computer vision, metode yang akhirnya menang bukan yang menanamkan pengetahuan manusia tentang masalahnya. Yang menang adalah metode umum yang terus membaik begitu diberi lebih banyak komputasi: search dan learning. Sutton menelusuri kasusnya satu per satu. Di catur komputer, kemenangan Deep Blue pada 1997 lahir dari search yang dalam, bukan dari pemahaman catur ala manusia, dan peneliti yang bertaruh pada pendekatan kedua tertinggal. Pola itu berulang di Go lewat self-play, bukan fitur buatan tangan. Pengenalan suara bergeser dari kaidah linguistik manual ke metode statistik lalu deep learning. Vision pindah dari pendeteksi tepi rancangan manusia ke fitur yang dipelajari sendiri. Ini terus terjadi, kata Sutton, karena menanamkan pengetahuan manusia terasa memuaskan dan menolong dalam jangka pendek, tapi akhirnya mentok lalu menghambat. Ia menyebutnya pelajaran pahit karena peneliti terus melupakan dan mempelajarinya ulang. Kesimpulannya sempit dan tegas: bangun meta-metode untuk menemukan, bukan isi dari apa yang kita kira sudah kita temukan.
Kenapa ini penting
Kalau kamu menentukan ke mana usaha sebuah sistem AI diarahkan, ini argumen untuk bertaruh pada komputasi yang bisa diskalakan dan learning umum, bukan encoding domain yang pintar. Ini logika di balik kenapa lab besar memilih menskalakan ketimbang merekayasa fitur manual, dan masih memprediksi pendekatan mana yang cepat usang.