مقالات عامة

يعمل الذكاء الاصطناعي على تغيير فهم العلماء لتعلم اللغة – ويثير أسئلة حول القواعد الفطرية

مجلة المذنب نت متابعات عالمية:

على عكس الحوار المكتوب بعناية والموجود في معظم الكتب والأفلام ، تميل لغة التفاعل اليومي إلى أن تكون فوضوية وغير مكتملة ومليئة بالبدايات الخاطئة والمقاطعات والأشخاص الذين يتحدثون مع بعضهم البعض. من المحادثات غير الرسمية بين الأصدقاء ، إلى المشاحنات بين الأشقاء ، إلى المناقشات الرسمية في قاعة مجلس الإدارة ، تكون المحادثة الحقيقية فوضوية. يبدو من المعجز أن يتمكن أي شخص من تعلم اللغة على الإطلاق نظرًا للطبيعة العشوائية للتجربة اللغوية.

لهذا السبب ، يعتقد العديد من علماء اللغة – بمن فيهم نعوم تشومسكي ، مؤسس علم اللغة الحديث – أن متعلمي اللغة يحتاجون إلى نوع من الغراء لكبح جماح الطبيعة الجامحة للغة اليومية. وهذا الصمغ هو القواعد: نظام من القواعد لتوليد الجمل النحوية.

يجب أن يكون لدى الأطفال قالب نحوي متصل بأدمغتهم لمساعدتهم على التغلب على قيود تجربتهم اللغوية – أو هكذا يذهب التفكير.

قد يحتوي هذا النموذج ، على سبيل المثال ، على “قاعدة عليا” تحدد كيفية إضافة القطع الجديدة إلى العبارات الموجودة. يحتاج الأطفال بعد ذلك فقط لمعرفة ما إذا كانت لغتهم الأم واحدة ، مثل الإنجليزية ، حيث يذهب الفعل قبل المفعول به (كما في “أنا أتناول السوشي”) ، أو لغة مثل اليابانية ، حيث يأتي الفعل بعد المفعول (في اليابانية ، يتم تنظيم نفس الجملة مثل “أنا أتناول السوشي”).

لكن الرؤى الجديدة في تعلم اللغة تأتي من مصدر غير متوقع: الذكاء الاصطناعي. يمكن لجيل جديد من نماذج اللغات الكبيرة للذكاء الاصطناعي كتابة مقالات في الصحف والشعر ورموز الكمبيوتر والإجابة على الأسئلة بصدق بعد التعرض لكميات هائلة من المدخلات اللغوية. والأكثر إثارة للدهشة ، أنهم جميعًا يفعلون ذلك دون مساعدة القواعد.

لغة نحوية بدون قواعد

حتى لو كان اختيارهم للكلمات غريبًا في بعض الأحيان ، لا معنى له أو يحتوي على العنصرية والتحيز الجنسي وغيرها من التحيزات الضارة، هناك شيء واحد واضح جدًا: الغالبية العظمى من مخرجات نماذج لغة الذكاء الاصطناعي هذه صحيحة نحويًا. ومع ذلك ، لا توجد قوالب نحوية أو قواعد مثبتة فيها – فهي تعتمد على الخبرة اللغوية وحدها ، مهما كانت فوضوية.

GPT-3 ، التي يمكن القول إنها الأكثر شهرة بين هذه النماذج ، هي شبكة عصبية عملاقة للتعلم العميق تحتوي على 175 مليار متغير. تم تدريبه على التنبؤ بالكلمة التالية في الجملة بالنظر إلى ما جاء من قبل عبر مئات المليارات من الكلمات من الإنترنت والكتب وويكيبيديا. عندما قام بالتنبؤ الخاطئ ، تم تعديل معلماته باستخدام خوارزمية التعلم التلقائي.

بشكل ملحوظ ، يمكن لـ GPT-3 إنشاء نص معقول يتفاعل مع المطالبات مثل “ملخص آخر فيلم” سريع وغاضب “هو …” أو “اكتب قصيدة بأسلوب إميلي ديكنسون”. علاوة على ذلك ، يمكن لـ GPT-3 الرد على مقارنات مستوى SAT وأسئلة فهم القراءة وحتى حل المشكلات الحسابية البسيطة – كل ذلك من تعلم كيفية التنبؤ بالكلمة التالية.

قد يولد نموذج الذكاء الاصطناعي والدماغ البشري نفس اللغة ، لكن هل يفعلون ذلك بنفس الطريقة؟
Just_Super / E + عبر Getty Images

مقارنة نماذج الذكاء الاصطناعي والعقول البشرية

لكن التشابه مع لغة البشر لا يتوقف عند هذا الحد. أظهرت الأبحاث المنشورة في Nature Neuroscience أن شبكات التعلم العميق الاصطناعية هذه يبدو أنها تستخدم نفس المبادئ الحسابية مثل الدماغ البشري. قارن فريق البحث ، بقيادة عالم الأعصاب أوري هسون ، أولاً مدى جودة GPT-2 – “الأخ الصغير” لـ GPT-3 – ويمكن للبشر التنبؤ بالكلمة التالية في قصة مأخوذة من البودكاست “This American Life”: الأشخاص و توقعت منظمة العفو الدولية نفس الكلمة بالضبط ما يقرب من 50 ٪ من الوقت.

سجل الباحثون نشاط دماغ المتطوعين أثناء الاستماع إلى القصة. كان أفضل تفسير لأنماط التنشيط التي لاحظوها هو أن أدمغة الناس – مثل GPT-2 – لم تكن تستخدم فقط الكلمة أو كلمتين سابقتين عند إجراء التنبؤات ولكنها اعتمدت على السياق المتراكم لما يصل إلى 100 كلمة سابقة. إجمالاً ، خلص المؤلفون إلى أن: “اكتشافنا للإشارات العصبية التنبؤية العفوية بينما يستمع المشاركون إلى الكلام الطبيعي يشير إلى أن التنبؤ النشط قد يكمن وراء تعلم البشر مدى الحياة للغة.”

أحد المخاوف المحتملة هو أن هذه النماذج اللغوية الجديدة للذكاء الاصطناعي يتم تغذيتها بالكثير من المدخلات: تم تدريب GPT-3 على خبرة لغوية تعادل 20،000 سنة بشرية. لكن دراسة أولية لم تخضع بعد لمراجعة الأقران وجدت أن GPT-2 لا يزال بإمكانه نمذجة تنبؤات الكلمة التالية البشرية وتنشيط الدماغ حتى عند التدريب على 100 مليون كلمة فقط. هذا جيد ضمن مقدار المدخلات اللغوية التي قد يسمعها الطفل العادي خلال السنوات العشر الأولى من حياته.

نحن لا نقترح أن يتعلم GPT-3 أو GPT-2 اللغة تمامًا مثل الأطفال. في الواقع ، لا يبدو أن نماذج الذكاء الاصطناعي هذه تستوعب الكثير ، إن وجدت ، ما تقوله ، في حين أن الفهم أساسي لاستخدام الإنسان للغة. ومع ذلك ، فإن ما أثبتته هذه النماذج هو أن المتعلم – وإن كان من السيليكون – يمكنه تعلم اللغة جيدًا بما يكفي من مجرد التعرض لإنتاج جمل نحوية جيدة تمامًا والقيام بذلك بطريقة تشبه معالجة الدماغ البشري.

ينتج عن المزيد ذهابًا وإيابًا المزيد من تعلم اللغة.
Westend61 عبر Getty Images

إعادة التفكير في تعلم اللغة

لسنوات ، اعتقد العديد من اللغويين أن تعلم اللغة مستحيل بدون قالب قواعد نحوي مدمج. تثبت نماذج الذكاء الاصطناعي الجديدة عكس ذلك. يبرهنون على أن القدرة على إنتاج لغة نحوية يمكن تعلمها من التجربة اللغوية وحدها. وبالمثل ، نقترح أن الأطفال لا يحتاجون إلى قواعد فطرية لتعلم اللغة.

يقول المثل القديم “يجب رؤية الأطفال ، وليس الاستماع إليهم” ، لكن أحدث نماذج لغة الذكاء الاصطناعي تشير إلى أنه لا يوجد شيء أبعد عن الحقيقة. بدلاً من ذلك ، يحتاج الأطفال إلى المشاركة في المحادثة ذهابًا وإيابًا قدر الإمكان لمساعدتهم على تطوير مهاراتهم اللغوية. الخبرة اللغوية – وليس القواعد – هي مفتاح أن تصبح مستخدمًا كفؤًا للغة.




نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى