• November 24, 2024

Bagaimana AI mengubah pemahaman ilmuwan tentang pembelajaran bahasa

Ini adalah ringkasan yang dibuat oleh AI, yang mungkin memiliki kesalahan. Untuk konteksnya, selalu rujuk artikel selengkapnya.

Model AI baru mungkin menunjukkan bahwa pembelajaran bahasa dapat dilakukan tanpa templat tata bahasa bawaan, bertentangan dengan apa yang diyakini banyak ahli bahasa

Berbeda dengan dialog yang ditulis dengan hati-hati yang ditemukan di sebagian besar buku dan film, bahasa interaksi sehari-hari cenderung berantakan dan tidak lengkap, penuh dengan permulaan yang salah, interupsi, dan orang-orang saling membicarakan satu sama lain. Dari percakapan santai antar teman, pertengkaran antar saudara, hingga diskusi formal di ruang rapat, percakapan otentik kacau. Tampaknya ajaib bahwa siapa pun dapat belajar bahasa mengingat sifat pengalaman linguistik yang acak.

Untuk alasan ini, banyak ahli bahasa – termasuk Noam Chomsky, pendiri linguistik modern – percaya bahwa pembelajar bahasa memerlukan semacam perekat untuk mengendalikan sifat bahasa sehari-hari yang sulit diatur. Dan perekat itu adalah tata bahasa: suatu sistem aturan untuk menghasilkan kalimat tata bahasa.

Anak-anak harus mempunyai a templat tata bahasa yang tertanam di otak mereka untuk membantu mereka mengatasi keterbatasan pengalaman bahasa mereka – atau begitulah pemikirannya.

Misalnya, templat ini mungkin berisi “aturan super” yang menentukan bagaimana potongan baru ditambahkan ke frasa yang sudah ada. Anak-anak kemudian hanya perlu belajar apakah bahasa ibu mereka adalah satu, seperti bahasa Inggris, di mana kata kerjanya ditempatkan sebelum objek (seperti dalam “Saya makan sushi”), atau bahasa seperti Jepang, di mana kata kerjanya berada setelah objek (dalam bahasa Jepang, the kalimat yang sama disusun sebagai “Saya makan sushi”).

Namun wawasan baru dalam pembelajaran bahasa datang dari sumber yang tidak diduga: kecerdasan buatan. Generasi baru model bahasa AI besar dapat menulis artikel surat kabar, puisi Dan kode komputer Dan menjawab pertanyaan dengan jujur setelah terkena masukan bahasa dalam jumlah besar. Dan yang lebih menakjubkan lagi, mereka semua melakukannya tanpa bantuan tata bahasa.

Bahasa gramatikal tanpa tata bahasa

Bahkan jika memang demikian pilihan kata terkadang aneh, tidak masuk akal atau berisi rasis, seksis dan prasangka berbahaya lainnya, satu hal yang sangat jelas: sebagian besar keluaran dari model bahasa AI ini benar secara tata bahasa. Namun tidak ada templat atau aturan tata bahasa yang tertanam di dalamnya – mereka hanya mengandalkan pengalaman berbahasa, betapapun berantakannya hal tersebut.

GPT-3, mungkin paling terkenal dari model iniadalah raksasa jaringan saraf pembelajaran mendalam dengan 175 miliar parameter. Ia dilatih untuk memprediksi kata berikutnya dalam sebuah kalimat mengingat apa yang telah terjadi sebelumnya lebih dari ratusan miliar kata dari internet, buku, dan Wikipedia. Ketika prediksinya salah, parameternya disesuaikan menggunakan algoritma pembelajaran otomatis.

Hebatnya, GPT-3 dapat menghasilkan teks yang dapat dipercaya dan merespons perintah seperti “Ringkasan film ‘Fast and Furious’ terakhir adalah…” atau “Tulis puisi dengan gaya Emily Dickinson.” Lebih jauh, GPT-3 dapat merespons hingga analogi tingkat SAT, pertanyaan pemahaman bacaan, dan bahkan memecahkan masalah aritmatika sederhana – mulai dari mempelajari cara memprediksi kata berikutnya.

Bandingkan model AI dan otak manusia

Namun kemiripan dengan bahasa manusia tidak berhenti sampai di sini. Penelitian yang dipublikasikan di Nature Neuroscience menunjukkan bahwa jaringan pembelajaran mendalam buatan ini tampaknya merupakan hal yang paling penting prinsip komputasi yang sama dengan otak manusia. Kelompok penelitian yang dipimpin oleh ahli saraf Uri Hassonpertama bandingkan seberapa baik GPT-2 – “adik laki-laki” dari GPT-3 – dan manusia mampu memprediksi kata berikutnya dalam cerita yang diambil dari podcast “This American Life”: manusia dan AI memprediksi kata yang sama persis hampir 50% dari waktu .

Para peneliti mencatat aktivitas otak para relawan saat mereka mendengarkan cerita tersebut. Penjelasan terbaik untuk pola aktivasi yang mereka amati adalah bahwa otak manusia – seperti GPT-2 – tidak hanya menggunakan satu atau dua kata sebelumnya saat membuat prediksi, namun mengandalkan akumulasi konteks hingga 100 kata sebelumnya. Para penulis menyimpulkan: “Temuan kami tentang sinyal saraf prediktif spontan saat partisipan mendengarkan ucapan alami menunjukkan hal tersebut prediksi aktif mungkin mendasari pembelajaran bahasa seumur hidup masyarakat.”

Kemungkinan kekhawatirannya adalah model bahasa AI baru ini menerima banyak masukan: GPT-3 telah dilatih pengalaman bahasa setara dengan 20.000 tahun manusia. Tetapi sebuah studi pendahuluan yang belum ditinjau oleh rekan sejawat, menemukan bahwa GPT-2 masih dapat memodelkan prediksi kata berikutnya dan aktivasi otak manusia bahkan ketika dilatih hanya dengan 100 juta kata. Jumlah ini masih sesuai dengan jumlah masukan linguistik yang mungkin dimiliki rata-rata anak terdengar selama 10 tahun pertama kehidupan.

Kami tidak menyarankan agar GPT-3 atau GPT-2 belajar bahasa persis seperti anak-anak. Memang, Model AI ini tampaknya tidak terlalu memahamijika ada, dari apa yang mereka katakan, sementara Pemahaman merupakan hal mendasar dalam penggunaan bahasa manusia. Namun apa yang dibuktikan oleh model-model ini adalah bahwa seorang pembelajar—walaupun pembelajar silikon—dapat belajar bahasa dengan cukup baik hanya dengan paparan saja untuk menghasilkan kalimat dengan tata bahasa yang sangat baik dan melakukannya dengan cara yang menyerupai pemrosesan otak manusia.

Memikirkan kembali pembelajaran bahasa

Selama bertahun-tahun banyak ahli bahasa percaya bahwa belajar bahasa tidak mungkin dilakukan tanpa templat tata bahasa bawaan. Model AI baru membuktikan sebaliknya. Mereka menunjukkan bahwa kemampuan menghasilkan bahasa gramatikal dapat dipelajari dari pengalaman berbahasa saja. Demikian pula kami menyajikannya anak-anak tidak membutuhkan tata bahasa bawaan untuk belajar bahasa.

“Anak-anak harus dilihat, bukan didengar,” kata pepatah lama, namun model bahasa AI terbaru menunjukkan bahwa tidak ada yang jauh dari kebenaran. Sebaliknya, anak-anak seharusnya begitu terlibat dalam percakapan bolak-balik semaksimal mungkin untuk membantu mereka mengembangkan keterampilan bahasa mereka. Pengalaman berbahasa – bukan tata bahasa – adalah kunci untuk menjadi pengguna bahasa yang mahir. – Rappler.com

Artikel ini pertama kali muncul di Percakapan.

Morten H. ChristiansenProfesor Psikologi, Universitas Cornell

Pablo Contreras Kallens, Ph.D. Mahasiswa Psikologi, Cornell University


demo slot