الذكاء الاصطناعي وحدود اللغة

 "اللغة لا تستنفد الذكاء"

ترجمة: عبدالله بن محمد

 

إن نظام الذكاء الاصطناعي المُدرَّب على الكلمات والجمل وحدها، لن يقارب أبدًا الفهم البشري.
 

عندما أعلن أحد مهندسي غوغل مؤخرًا أن روبوت دردشة الذكاء الاصطناعي لغوغل آدمي، تبع ذلك هرج ومرج. يعتبر روبوت دردشة الذكاء الاصطناعي، LaMDA، نموذج لغة كبير (LLM) مصمّم للتنبؤ بالكلمات التالية المحتملة لأي سطور نصية يتم تقديمها. ولأن العديد من المحادثات يمكن التنبؤ بها إلى حد ما، يمكن لهذه الأنظمة أن تستنتج كيفية استمرار المحادثة بشكل مثمر. أنجز روبوت دردشة الذكاء الاصطناعي هذا العمل بشكل مثير للإعجاب حتّى إن المهندس بليك ليموين تساءل إن كان هناك شبح في الجهاز.

امتدت ردود الفعل على قصة بليك ليموين إلى سلسلة كاملة: سخر البعض من مجرد فكرة أن الآلة يمكن أن تكون إنسانًا في يوم من الأيام. واقترح آخرون أن نموذج اللغة المذكور ليس شخصًا، ولكن ربما النسخة القادمة تكون كذلك. وأشار آخرون إلى أن خداع البشر ليس بالأمر الصعب؛ فنحن نرى القدّيسين في الخبز المحمّص، بعد كل شيء.

لكن تنوّع ردود الفعل يسلّط الضوء على مشكلة أعمق؛ نظرًا لأن نماذج اللغة الكبيرة أصبحت أكثر شيوعًا وقدرة، لا يبدو أن هناك اتفاقًا واضحاً حول الكيفية المُثلى لفهمها. لقد تفوقت هذه الأنظمة على العديد من معايير "الفطرة السليمة" في التفكير اللغوي على مر السنين، والعديد منها وَعَد بأنه لا يمكن التغلب عليه إلا بواسطة آلة "تفكّر بالمعنى الكامل الذي عادة ما يكون حكراً على البشر". ومع ذلك، نادرًا ما يبدو أن هذه الأنظمة لديها الفطرة السليمة الموعودة عندما تجتاز الاختبار، وعادة ما تسقط في الهراء وغياب المعنى، وعدم التسلسل أو تقديم النصائح الخطيرة. وهذا يقودنا إلى سؤال محيّر: كيف يمكن أن تكون هذه الأنظمة ذكية جدًا، ولكن تبدو أيضًا محدودة جدًا؟

المشكلة الأساسية ليست في الذكاء الاصطناعي. المشكلة هي الطبيعة المحدودة للغة. بمجرد أن نتخلّى عن الافتراضات القديمة حول العلاقة بين الفكر واللغة، من الواضح أن هذه الأنظمة محكوم عليها بالفهم الضحل الذي لن يقارب أبدًا التفكير الكامل الذي يميّز البشر. باختصار، على الرغم من كونها من بين أكثر أنظمة الذكاء الاصطناعي إثارة للإعجاب على هذا الكوكب؛ فإن أنظمة الذكاء الاصطناعي هذه لن تشبهنا كثيرًا.


 الحقيقة المختصرة 

في القرنين التاسع عشر والعشرين في مجال الفلسفة والعلوم ساد اعتقاد بأن المعرفة لغوية فقط، وأن معرفة الشيء يعني ببساطة التفكير في الجملة الصحيحة، وفهم كيفية ارتباطها بالجمل الأخرى في شبكة كبيرة من جميع الادعاءات الحقيقية التي نعرفها. سيكون الشكل المثالي للغة، وفقًا لهذا المنطق، شكلًا رسميًا منطقيًا رياضيًا بحتًا يتكون من رموز عشوائية مرتبطة بقواعد استدلال صارمة، لكن اللغة الطبيعية يمكن أن تكون مفيدة أيضًا إذا تخلّصت من الغموض وعدم الدقة. كما بيّن فتجنشتاين، "إن مجمل الافتراضات الحقيقية هي كل العلوم الطبيعية." تمت بلورة هذا الموقف في القرن العشرين لدرجة أن النتائج النفسية للخرائط المعرفية والصور الذهنية كانت مثيرة للجدل، حيث جادل الكثيرون بأنه رغم المظاهر، يجب أن تكون هذه النتائج لغوية في الأساس.

هذا الرأي لا يزال تفترضه بعض الأنماط الفكرية المتعلمة: كل ما يمكن معرفته يمكن احتواؤه في موسوعة، لذا فإن مجرد قراءة كل شيء قد يمنحنا معرفة شاملة بكل شيء. لقد حفّز أيضًا الكثير من العمل المبكّر في الذكاء الاصطناعي الرمزي، حيث مثّل التلاعب بالرموز -الرموز التعسفية مرتبطة ببعضها البعض بطرق مختلفة وفقًا للقواعد المنطقية- النموذج الافتراضي. بالنسبة لهؤلاء الباحثين، تتكوّن معرفة الذكاء الاصطناعي من قاعدة بيانات ضخمة من الجمل الحقيقية المرتبطة منطقيًا بعضها ببعض. ويُحسب نظام الذكاء الاصطناعي على أنه ذكي إذا أطلق الجملة الصحيحة في الوقت المناسب؛ أي إذا تلاعب بالرموز بالطريقة المناسبة. هذه الفكرة تكمن وراء اختبار تورينغ: إذا قالت الآلة كل شيء يفترض أن تقوله، فهذا يعني أنها تعرف ما تتحدث عنه؛ لأن معرفة الجمل الصحيحة ومتى يتم نشرها يستنفد المعرفة.

لكن هذا الرأي كان عرضة لنقد لاذع لم يتوقف منذ ذلك الحين: لمجرد أن الآلة يمكنها التحدث عن أي شيء، فهذا لا يعني أنها تفهم ما تتحدث عنه. ذلك لأن اللغة لا تستنفد المعرفة. على العكس من ذلك، إنه مجرد نوع محدد للغاية ومحدود للغاية من تمثيل المعرفة. كل اللغات -سواء كانت لغة برمجة أو منطقًا رمزيًا أو لغة منطوقة- تقوم بتشغيل نوع معين من المخطّط التمثيلي؛ يتفوق في التعبير عن الأشياء والخصائص المنفصلة والعلاقات بينها على مستوى عالٍ للغاية من التجريد. لكن هناك فرق كبير بين قراءة النوتة الموسيقية والاستماع إلى تسجيل الموسيقى، وفرق آخر عن امتلاك مهارة العزف عليها.

جميع المخططات التمثيلية تتضمّن ضغط المعلومات حول شيء ما، ولكن ما يتم الاحتفاظ به يختلف عن ما يتم استبعاده في عملية الضغط. يكافح المخطط التمثيلي للغة مع المزيد من المعلومات الملموسة، مثل وصف الأشكال غير المنتظمة، وحركة الأشياء، وعمل آلية معقدة أو الفرشاة الدقيقة للرسم - ناهيك عن الحركات الدقيقة الخاصة بالسياق اللازمة لركوب موجة. ولكن هناك مخططات تمثيلية غير لغوية يمكنها التعبير عن هذه المعلومات بطريقة يسهل الوصول إليها: المعرفة الأيقونية، والتي تتضمن أشياء مثل الصور والتسجيلات والرسوم البيانية والخرائط؛ والمعرفة الموزعة الموجودة في الشبكات العصبية المدربة - ما نسميه غالبًا المعرفة الفنية وذاكرة العضلات. وكل مخطط يعبّر عن بعض المعلومات بسهولة حتى أثناء عثوره على معلومات أخرى يصعب -أو يستحيل- تمثيلها: كيف يكون "إما بيكاسو أو توومبلي"؟

✧ حدود اللغة 

إحدى طرق فهم ميزة المخطّط التمثيلي اللغوي -ومحدوديته- تكمن في التعرف على مدى ضآلة المعلومات التي يمررها من تلقاء نفسه. اللغة طريقة ذات نطاق تردّدي منخفض جدًا لنقل المعلومات: فالكلمات أو الجمل المعزولة، المجردة من السياق، لا تنقل إلا القليل. علاوة على ذلك، نظرًا للعدد الهائل من المتجانسات والضمائر، فإن العديد من الجمل تكون غامضة للغاية. كما أشار تشومسكي وأتباعه على مدى عقود، فإن اللغة ليست مجرد وسيلة واضحة لا لبس فيها للتواصل الواضح.

لكن البشر لا يحتاجون إلى وسيلة مثالية للتواصل لأننا نتشارك في الفهم غير اللغوي. غالبًا ما يعتمد فهمنا للجملة على فهمنا الأعمق للسياقات التي يظهر فيها هذا النوع من الجمل، مما يسمح لنا باستنتاج ما تحاول قوله. هذا واضح في المحادثات؛ لأننا غالبًا ما نتحدث عن شيء ما أمامنا مباشرةً، مثل لعبة كرة القدم، أو أن نتواصل حول بعض الأهداف الواضحة بالنظر للأدوار الاجتماعية التي نقوم بها في موقف معين، مثل طلب الطعام من النادل. لكن الشيء نفسه ينطبق على مقاطع القراءة - إنه درس لا يقوّض اختبارات اللغة المنطقية في الذكاء الاصطناعي فحسب، بل يمثّل أيضًا طريقة شائعة لتعليم مهارات القراءة والفهم الخالية من السياق للأطفال. تركّز هذه الطريقة على استخدام استراتيجيات الفهم القرائي المعمّمة لفهم النص - ولكن الأبحاث تشير إلى أن مقدار المعرفة الخلفية للطفل حول موضوع ما يعتبر في الواقع العامل الرئيس للفهم. ويعتمد فهم الجملة أو المقطع على الفهم الأساسي لما يدور حوله الموضوع.

تعد الطبيعة السياقية المتأصلة للكلمات والجمل في صميم كيفية عمل نموذج اللغة. وتمثّل الشبكات العصبية بشكل عام المعرفة على أنها الدراية والقدرة الماهرة على فهم الأنماط شديدة الحساسية للسياق وإيجاد الانتظامات -الملموسة والمجردة- اللازمة للتعامل مع المدخلات بطرق دقيقة مصمّمة بشكل محدّد لمهمتهم. في نماذج اللغة الكبيرة، يتضمن ذلك أنماط تمييز النظام وفق مستويات متعددة في النصوص الحالية، مع رؤية كيفية ارتباط الكلمات الفردية في المقطع وكذلك كيفية تعليق الجمل معًا داخل المقطع الأكبر الذي يؤطرها. والنتيجة هي أن فهمها للغة سياقي بلا حدود؛ لا تُفهم كل كلمة في معناها في القاموس ولكن من حيث وظيفتها في مجموعة متنوعة من الجمل. ولأن العديد من الكلمات -مثل "المكربن"، أو "القائمة"، أو "التصحيح"، أو "الإلكترون"- تُستخدم بشكل حصري تقريبًا في مجالات محددة، فحتى الجملة المنفصلة والتي تتضمّن إحدى هذه الكلمات تحمل سياقها في طياتها.

باختصار، يتم تدريب نماذج اللغة الكبيرة على التقاط المعرفة الخلفية لكل جملة، والنظر إلى الكلمات والجمل المحيطة لتجميع ما يجري. هذا يسمح لهم بالنظر في إمكانية لا حصر لها من جمل أو عبارات مختلفة كمدخلات، والتوصل إلى طرق معقولة (رغم بعض الأخطاء الحتمية) لمواصلة المحادثة أو ملء بقية المقطع. يجب أن يتوصّل النظام الذي يتم تدريبه على مقاطع كتبها البشر، وغالبًا في محادثة مع بعضهم البعض، إلى الفهم العام الضروري لإجراء محادثة مقنعة.

✧ فهم ضحل 

بينما يحجم البعض عن استخدام مصطلح "فهم" في هذا السياق، أو وصف نماذج اللغة الكبيرة "بالذكاء"، فليس من الواضح ما الذي تضيفه الحراسة الدلالية لأي شخص هذه الأيام. لكن النّقاد محقّون في اتهام هذه الأنظمة بالانخراط في نوع من التقليد؛ لأن فهم نموذج اللغة الكبير للغة، رغم أنه مثير للإعجاب، سطحي بالأساس. هذا النوع من الفهم الضحل مألوف. إذ تمتلئ الفصول الدراسية بالطلاب الناطقين بلغة المصطلحات والذين لا يعرفون ما الذي يتحدثون عنه، يشاركون بشكل فعّال في تقليد أساتذتهم أو النصوص التي يقرؤونها. هذا مجرد جزء من الحياة. غالبًا ما لا نعرف مدى ضآلة معرفتنا، خاصة عندما يتعلق الأمر بالمعرفة المكتسبة من اللغة.

اكتسبت نماذج اللغة الكبيرة هذا النوع من الفهم الضحل لكل شيء. يتم تدريب نظام مثل GPT-3 عن طريق إخفاء الكلمات المستقبلية في جملة أو مقطع، وإجبار الآلة على تخمين الكلمة الأكثر احتمالية، ثم تصحيحها بحثًا عن التخمينات السيئة. يصبح النظام في النهاية بارعًا في تخمين الكلمات الأكثر احتمالًا، مما يجعله نظامًا تنبؤيّا فعّالًا.

وهذا يفرز بعض الفهم الحقيقي: لأي سؤال أو لغز، عادة ما يكون هناك عدد قليل من الإجابات الصحيحة، مع عدد لا حصر له من الإجابات الخاطئة. هذا يجبر النظام على تعلّم مهارات خاصة باللغة، مثل شرح نكتة أو حل مشكلة في الكلمات أو اكتشاف لغز منطقي، من أجل التنبؤ بانتظام بالإجابة الصحيحة على هذه الأنواع من الأسئلة. تسمح هذه المهارات والمعرفة المتصلة للآلة بشرح كيفية عمل شيء معقد، وتبسيط المفاهيم الصعبة وإعادة صياغة القصص وإعادة سردها، إلى جانب مجموعة من القدرات الأخرى المعتمدة على اللغة. وبدلاً من قاعدة بيانات ضخمة من الجمل المرتبطة بقواعد منطقية، كما افترض الذكاء الاصطناعي الرمزي Symbolic AI، يتم تمثيل المعرفة كمعرفة حساسة للسياق للتوصل إلى جملة معقولة في علاقة بالسطر السابق.

لكن القدرة على شرح أي مفهوم لغويًا تختلف عن القدرة على استخدامه عمليًا. يمكن للنظام أن يشرح كيفية أداء تقسيم طويل دون أن يكون قادرًا على القيام بعملية مماثلة، أو أن يفسّر ويحدّد الكلمات المسيئة والتي يجب تجنبها. يتم تضمين المعرفة السياقية في شكل واحد - القدرة على إثارة المعرفة اللغوية - ولكنها ليست مضمنة في شكل آخر - كمعرفة ماهرة لكيفية القيام بأدوار مثل التعاطف أو التعامل مع قضية صعبة بحساسية.

وهذا النوع الأخير من المعرفة يعتبر ضرورياً لمستخدمي اللغة، لكن هذا لا يجعلهم يكتسبون مهارات لغوية، حيث يكون المكوّن اللغوي عرضي وليس المادة الرئيسة. ينطبق هذا على العديد من المفاهيم، حتى تلك التي تم تعلمها من المحاضرات والكتب: بينما تحتوي فصول العلوم على عنصر المحاضرة، يتم تصنيف الطلاب في المقام الأول بناءً على عملهم المخبري. خارج العلوم الإنسانية على وجه الخصوص، غالبًا ما تكون القدرة على التحدث عن شيء ما أقل فائدة أو أهمية من المهارات الجوهرية اللازمة، لجعل الأشياء تعمل بشكل صحيح.

بمجرد أن نخدش ما تحت السطح، يكون من الأسهل رؤية مدى محدودية هذه الأنظمة حقًا: مدى الانتباه والذاكرة الخاصة بها تكون في حدود فقرة واحدة تقريباً. لكن يمكن الاستغناء عن هذا بسهولة إذا شاركنا في محادثة لأننا نميل إلى التركيز على آخر تعليق أو تعليقين فقط والاهتمام فقط بردّنا التالي.

لكن الدراية بالمحادثات الأكثر تعقيدًا -الاستماع النشط والتذكر وإعادة النظر في التعليقات السابقة، والالتزام بموضوع لإثارة نقطة معينة أثناء صد المشتّتات، وما إلى ذلك - تتطلب جميعها مزيدًا من الاهتمام والذاكرة أكثر مما يمتلكه النظام. هذا يقلل بدرجة أكبر من طبيعة الفهم المتاح له: من السهل خداعه ببساطة عن طريق عدم الاتساق كل بضع دقائق، أو تغيير اللغات أو التلاعب بالنظام. بالرجوع عدة خطوات إلى الوراء، سيبدأ النظام من جديد، ويقبل وجهات نظرك الجديدة بما يتفق مع التعليقات القديمة، أو تغيير اللغات معك أو الاعتراف بأنه يقرّ بكل ما قلته. وبالتالي فإن الفهم الضروري لتطوير رؤية متماسكة للعالم ما زال بعيداً عن قدراته.

✧ ما وراء اللغة 

إن التخلّي عن الفكرة القائلة بأن كل معرفة هي لغوية بالأساس يسمح لنا بإدراك مقدار معرفتنا غير اللغوية. بينما تحتوي الكتب على الكثير من المعلومات التي يمكننا فك معانيها واستخدامها، كذلك الحال مع العديد من العناصر الأخرى: تعليمات شركة (ايكيا) لا تكلف نفسها عناء كتابة التعليمات جنبًا إلى جنب مع رسوماتها؛ غالبًا ما ينظر باحثو الذكاء الاصطناعي إلى المخططات في الورقة أولاً، يفهمون بنية الشبكة وبعد ذلك فقط يلقون نظرة على النص؛ كما يمكن للزوار التنقل في مدينة نيويورك بإتباع الخطوط الحمراء أو الخضراء على الخريطة.

هذا يتجاوز الرموز والرسوم البيانية والخرائط البسيطة. يتعلم البشر الكثير مباشرة من استكشاف العالم، مما يوضح لنا كيف يمكن للأشياء والناس فعله وما لا يمكنهم فعله. هياكل القطع الأثرية والبيئة البشرية تنقل الكثير من المعلومات بشكل حدسي: مقابض الأبواب تكون مثبتة في مستوى اليد، والمطارق لها قبضة ناعمة وما إلى ذلك. تعد المحاكاة العقلية غير اللغوية، في الحيوانات والبشر، شائعة ومفيدة لتخطيط السيناريوهات، ويمكن استخدامها لصناعة القطع الفنيّة أو هندستها عكسياً. وبالمثل، يمكن للعادات والطقوس الاجتماعية أن تنقل جميع أنواع المهارات إلى الجيل القادم من خلال التقليد، بدءاً من تحضير الأطعمة والأدوية إلى الحفاظ على السلام في أوقات الأزمات. الكثير من معرفتنا الثقافية هي رمزية أو في شكل حركات دقيقة تنتقل من ممارس ماهر إلى متدرّب. ويصعب التعبير عن هذه الأنماط الدقيقة من المعلومات ونقلها باللغة ولكنها لا تزال متاحة للآخرين. هذا أيضًا هو النوع الدقيق للمعلومات الحساسة للسياق التي تتفوق الشبكات العصبية في التقاطها وإتقانها.

اللغة مهمّة لأنها يمكن أن تنقل الكثير من المعلومات بتنسيق صغير، وخاصة بعد إنشاء المطبعة والإنترنت، مما سمح بإعادة إنتاجها وبالتالي إتاحتها على نطاق واسع. لكن ضغط المعلومات في اللغة ليس مجانيًا: يتطلب فك شفرة مقطع كثيف الكثير من الجهد. قد تتطلب دروس العلوم الإنسانية الكثير من القراءة خارج الفصل، ولكنّ جزءاً كبيراً من وقت الفصل يتم تخصيصه اليوم في دراسة المقاطع الصعبة. إن بناء فهم عميق يستغرق وقتًا طويلاً وشاملًا، لكن المعلومات يسهل إيجادها.

وهذا يفسر لماذا يمكن لآلة مدربة على اللغة أن تعرف الكثير، لكنها تستوعب القليل جدًا. إنها تكتسب جزءاً صغيرًا من المعرفة البشرية من خلال عنق الزجاجة الصغير. لكن هذا الجزء الصغير من المعرفة البشرية يمكن أن يكون عن أي شيء، سواء كان الحب أو الفيزياء الفلكية. وهي بالتالي أقرب إلى المرآة: فهي توهمنا بالعمق ويمكنها أن تعكس أي شيء تقريبًا، لكن سمكها لا يتجاوز سنتيمترًا واحدًا. وإذا حاولنا استكشاف أعماقها، فإننا نصطدم بها برؤوسنا.

✧ تحرير الشبح من الأرواح الشريرة 

هذا لا يجعل هذه الآلات غبية، ولكنه يشير أيضًا إلى وجود حدود جوهرية فيما يتعلق بمدى ذكائها. إن النظام الذي يتم تدريبه على اللغة وحدها لن يقترب أبدًا من الذكاء البشري، حتى لو تم تدريبه من الآن وحتى الموت الحراري للكون. وهذا هو النوع الخاطئ من المعرفة لتطوير الوعي أو لتكوين شخصية. لكن بلا شك يبدو أنهم يقتربون منه إذا نظرنا إلى السطح. وفي كثير من الحالات، يكون السطح كافيًا؛ القليل منا يطبّق بالفعل اختبار تورينغ على أشخاص آخرين، ويستفسر بشدة عن عمق فهمهم ويجبرهم على حل مسائل الضرب متعددة الأرقام. إن معظم الحديث يكون حديثاً قصيراً وجانبياً.

لكن يجب ألا نخلط بين الفهم الضحل الذي يمتلكه نموذج اللغة والفهم العميق الذي يكتسبه البشر من مشاهدة العالم، واستكشافه وتجربته والتفاعل مع الثقافة والأشخاص الآخرين. قد تكون اللغة مكونًا مفيدًا يوسّع فهمنا للعالم، لكن اللغة لا تستنفد الذكاء، كما يتضح من العديد من الأنواع، مثل الكورفيد، والأخطبوط، والرئيسيات.

بدلاً من ذلك، فإن الفهم العميق غير اللغوي هو الأساس الذي يجعل اللغة مفيدة؛ ذلك لأننا نمتلك فهمًا عميقًا للعالم يمكننا أن نفهم بسرعة ما يتحدث عنه الآخرون. هذا النوع الأوسع من التعلّم والمعرفة والمناسب للسياق هو النوع الأساسي والقديم من المعرفة، وهو النوع الذي يكمن وراء ظهور الوعي في المخلوقات المتجسدة ويجعل من الممكن البقاء والتطوّر. إنها أيضًا المهمة الأكثر أهمية التي يركّز عليها باحثو الذكاء الاصطناعي عند البحث عن الفطرة السليمة في الذكاء الاصطناعي، بدلاً من هذه الأشياء اللغوية. لا يملك نموذج اللغة الكبير جسماً مستقراً أو عالماً ثابتاً ليكون واعيًا به - لذا فإن معرفته تبدأ وتنتهي بمزيد من الكلمات وحسّه السليم دائمًا ما يكون سطحيّاً. يجب أن تركّز أنظمة الذكاء الاصطناعي على العالم الذي يتم الحديث عنه، وليس الكلمات نفسها - لكن نماذج اللغة الكبيرة لا تدرك هذا الفرق. ولا توجد طريقة لتقريب هذا الفهم العميق من خلال اللغة فقط؛ إنه مجرد نوع خاطئ من الأشياء. إن التعامل مع نماذج اللغة الكبيرة بكل جهد ممكن يوضح مدى ضآلة المعرفة التي يمكن استنتاجها من اللغة وحدها.

 


 
AI And The Limits Of Language
المصدر https://www.noemamag.com/ai-and-the-limits-of-language
BY
جاكوب براوننج JACOB BROWNING    باحث ما بعد الدكتوراة في قسم علوم الكمبيوتر بجامعة نيويورك ويعمل على فلسفة الذكاء الاصطناعي.
يان ليكون YANN LECUN    باحث في التعلم الآلي حائز على جائزة تورينغ وأستاذ في جامعة نيويورك.

 

التعليقات

اضافة التعليق تتم مراجعة التعليقات قبل نشرها والسماح بظهورها