Studi Apple: AI bisa nyerah ketika masalah terlalu susah
Apple mengungkapkan keterbatasan fundamental pada kemampuan penalaran AI canggih.

Penelitian terbaru yang dilakukan oleh tim Machine Learning Research di Apple mengungkapkan keterbatasan fundamental pada kemampuan penalaran AI canggih. Studi ini menguji empat model AI terkemuka—termasuk varian dari OpenAI, DeepSeek, Claude, dan Google Gemini—dengan menggunakan serangkaian teka-teki logika yang dirancang secara khusus.
Dilansir dari HardwareZone, teka-teki tersebut dipilih karena memungkinkan pengujian proses penalaran melalui berbagai tingkat kompleksitas, dari yang sederhana hingga sangat kompleks .
Pada tingkat kesulitan rendah, semua model menunjukkan performa yang mengesankan. Model-model AI mampu memecahkan teka-teki dengan efisien, menggunakan token secara optimal dan menghasilkan jawaban yang akurat. Pada fase ini, sistem tampak “berpikir” secara konsisten dan menjawab permasalahan yang ada secara tepat.
Namun, ketika teka-teki ditingkatkan ke tingkat kompleksitas menengah, perbedaan performa mulai terlihat. Model dengan mekanisme penalaran bawaan (reasoning) menunjukkan keunggulan lebih signifikan dibandingkan dengan model Large Language Model (LLM) standar yang mengandalkan pencocokan pola dari data latih .
Fenomena menarik terjadi ketika tingkat kesulitan mencapai level tinggi. Meskipun diberikan sumber daya komputasi yang cukup, model-model AI tersebut justru “menyerah” di tengah proses perhitungan. Mereka sempat menghabiskan sejumlah token untuk melanjutkan proses penalaran, namun pada akhirnya tiba-tiba berhenti bekerja, seolah mengakui bahwa permasalahan tersebut terlalu kompleks untuk diselesaikan.
Bahkan ketika algoritma atau petunjuk jawaban diberikan secara eksplisit melalui prompt, AI masih gagal konsisten menyelesaikan teka-teki tersebut. Temuan ini mengindikasikan adanya "batasan skala" dalam kemampuan penalaran AI, yang menghambat performa dalam menghadapi masalah dengan kompleksitas tinggi .
Selain itu, studi juga menemukan bahwa beberapa model cenderung “overthinking”. Walaupun mereka sesekali berhasil menemukan jawaban yang benar, proses berpikir mereka tak jarang terus berlangsung dengan mengeksplorasi jalur pemikiran alternatif yang salah, sehingga menghabiskan lebih banyak token tanpa menambah akurasi jawaban.
Hal tersebut menunjukkan bahwa, meskipun AI modern sudah sangat handal dalam mengolah data dan memecahkan soal-soal sederhana, mereka masih kesulitan untuk memahami konsep secara mendalam dan melakukan penalaran logis yang utuh seperti yang bisa dilakukan manusia.
Secara keseluruhan, penelitian Apple ini menekankan pentingnya pengembangan lanjutan pada model-model AI. Meskipun saat ini AI telah menunjukkan kemajuan signifikan pada tugas-tugas rutin, keterbatasan dalam menghadapi masalah kompleks membuka peluang besar bagi penelitian untuk menciptakan sistem penalaran yang lebih mendalam.
Dengan menemukan dan memahami batasan ini, para peneliti berharap dapat mendorong inovasi berikutnya sehingga pada masa depan, AI dapat berperan sebagai rekan yang benar-benar handal dalam menyelesaikan permasalahan kompleks.