الذكاء الاصطناعي والفلسفة
يبدو مرجحا أن الذكاء الاصطناعي يعيد بعث الفلسفة، ويزيد أهميتها والحاجة إليها؛ لأسباب كثيرة، منها أنه لا يمكن فهم استيعاب التحولات الكبرى الناشئة عن الذكاء الاصطناعي وتقدير مساراتها ومستقبلاتها إلا بالاستعانة بالفلسفة؛ بما هي إدارك حقيقة الأشياء، وجذر المعارف والعلوم والتكنولوجيا. وفي المقابل أيضا فإن الذكاء الاصطناعي يؤثر على الإدارك والوعي الإنساني للحقائق؛ ما يطور ويغير في الفلسفة، أو ينشئ فلسسفة جديدة مستمدة من التكنولوجيا الجديدة أو متشكلة حولها.
إن المجتمع العلمي مشغول منذ عدة عقود، ربما منذ أطلق ألن تورينغ (1912 – 1954) مشورع محكاة السلوك والتفكير الإنساني، أو تحويل الذكاء الإنساني إلى تكنولوجيا. منشئا بذلك منعطفا في مسار العلم والتكنولوجيا من محاكاة الجسد إلى محاكاة العقل ثم محاكاة الإدراك والوعي والتداعيات والتذكرن وربما السلوك والمشاعر والأفكار والمعتقدات.
لقد فتح تورينغ المجال لعاصفة من الأسئلة والتداعيات والمخاوف والطموحات، بل وايضا إعادة تعريف أنفسنا كبشر، وهل نحن كائنات رقمية؟ أو مجموعة من الدارات الكهربائية والفوتونات والالكترونات، نكون نحن تبعا لخريطة تشكلها وتحولها؟
لقد تحول الذكاء الاصطناعي إلى تقنية متداولة ومتاحة لجميع الناس وإن بمستويات مختلفة، وأصلح مجالا علميا راسخا في الجامعات والمختبرات والشركات المتخصصة بالتكنولوجيا، ويجب القول إن ما هو متحقق بالفعل أقل بكثير مما يبدو في وسائل الإعلام والسينما والدراما والخيال العلمي والشائعات المتداولة في الرأي العام وفي المجتمعات، وحتى في أوساط المثقفين والأكاديميين. لكن أيضا يجب القول إن الفجوة تتناقص بين الواقع والخيال، فقد أصبحت السيارات والطائرات آلية القيادة والروبوتات الذكية حقيقة واقعية وتكنولوجيا مستخدمة، ومن المؤكد أنها تغير في حياة الأمم والأفراد والعلاقات الاجتماعية والسياسية والدولية، لننظر على سبيل المثال إلى الحروب وتحولاتها بفعل الـ "درونز"
أطلق الفيلسوف بوستروم مدير معهد مستقبل الإنسانية في جامعة أكسفورد ومؤلف كتاب “الذكاء الفائق – المسارات، المخاطر، الاستراتيجيات” (Superintelligence: Paths, Dangers, Strategies, 2014). جدالا واسعا عندما تحدث عن حالة مستقبلية تكون فيها الآلات أكثر ذكاء من الإنسان! وما سوف يحدث للإنسان الذي يصنع آلة أذكى منه؟ هل سنتخلف عن الآلات؟ هل سوف يباد البشر بفعل الآلات التي صنعوها؟
وفي المقابل فإن كثيرا من الباحثين وخاصة في المجال العلمي والتكنولوجي يعتبرون تأملات بوستروم مجرد افتراضات لا ترقى إلى مستوى البحث العلمي الأكاديمي. لكن مفكرين وفلاسفة وقادة سياسيين واجتماعيين يأخذون الأمر على محمل الجدّ، وينطرون إلى باحثي ي الذكاء الاصطناعي بأنهم لا يهتمون بمستقبل البشرية؟ ويتمتعون بغرور أكاديمي يمنعهم من الرؤية الشاملة.
يشير الباحث فينسنت كونتيزر في دراسة منشورة في العام 2016 في مجلة "prospect" إلى أن ي الذكاء الاصطناعي يُعَدّ في الأصل حقلًا فلسفيًّا بامتياز. فالسؤال المركزي الذي بدأ به هذا المجال هو سؤال فلسفي خالص: هل يمكن للآلة أن «تفكر»؟ هذا السؤال نفسه هو ما طرحه آلان تورينغ (Alan Turing) عام 1950 في مقاله الشهير «الآلات الحاسبة والذكاء» (Computing Machinery and Intelligence) الذي نُشر في مجلة Mind.. في ذلك المقال، اقترح تورينغ أن طريقةً عمليةً لبحث السؤال هي ما أصبح يُعرف لاحقًا بـ "اختبار تورينغ"، وهو تجربة فكرية تقوم على وضع إنسان في حوار كتابي عبر الحاسوب مع طرفين مجهولين: أحدهما إنسان، والآخر آلة. فإذا لم يتمكن المحاور البشري من التفريق بينهما، فإننا نُسند للآلة سلوكًا يماثل الذكاء البشري على الأقل من الناحية العملية. لقد كان تورينغ فيلسوفًا بقدر ما كان عالم رياضيات ومنطقيًا. فهو لم يطرح اختبار تورينغ كتعريف نهائي للذكاء، بل كـ طريقة تجريبية لتجاوز الجدل الميتافيزيقي العقيم حول ماهية «العقل» أو «الوعي». من هنا نشأ الطموح الأساسي لحقل الذكاء الاصطناعي: تجسيد عمليات التفكير في نماذج رياضية قابلة للبرمجة.
يقول كونتنير : في منتصف القرن العشرين، كانت أجواء التفاؤل مهيمنة. فقد ظنّ كثير من العلماء أن بناء آلة ذكية تمامًا هو مسألة سنوات قليلة فقط. ففي مؤتمر دارتموث (Dartmouth Conference) عام 1956 الذي يُعدّ حدث التأسيس الرسمي للذكاء الاصطناعي كحقل علمي مستقل؛ صرّح المنظّمون، ومنهم جون مكارثي (John McCarthy) ومارفن مينسكي (Marvin Minsky)، بأنّ كل جوانب الذكاء يمكن مبدئيًا وصفها بدقة كافية لبرمجتها في آلة. لكن هذه الوعود الطموحة لم تتحقق بالسرعة المأمولة. فقد تبين أن مشكلاتٍ بسيطة ظاهريًا، مثل التعرّف على الأشياء في الصور، تتطلب قدرًا هائلًا من المعرفة السياقية والمرونة الإدراكية التي لم يكن بالإمكان آنذاك تمثيلها حسابيًا.
لكن مع تراكم الإخفاقات في مشاريع الطموحات الكبرى، دخل المجال ما سُمّي لاحقًا بـ «شتاء الذكاء الاصطناعي» (AI Winter) — وهي فترة من خيبة الأمل وتراجع التمويل والاهتمام. خلال هذه الفترة، اتجه الباحثون نحو البراغماتية والجزئية: بدلًا من محاولة بناء عقل شامل يحاكي الإنسان، انصبّ التركيز على حلول محددة لمشكلات ضيقة، مثل لعب الشطرنج، أو التعرّف على الكلام، أو البرمجة المنطقية. وقد ولّد هذا التحوّل نوعًا من القطيعة بين الفلسفة والذكاء الاصطناعي العلمي. فبينما ظل الفلاسفة يناقشون الوعي والمعنى والعقل، انشغل الباحثون بكتابة خوارزميات قادرة على الأداء الفعلي. وهكذا، صار كثير من علماء الحاسوب ينظرون إلى الفلاسفة على أنهم غارقون في التأملات غير المثمرة، بينما رأى الفلاسفة أن الباحثين في الذكاء الاصطناعي، قد تنازلوا عن الأسئلة الجوهرية لصالح تقنيات براغماتية سطحية.
في التسعينيات وبدايات الألفية، شهد الحقل تحوّلًا نوعيًا جديدًا. فقد أدّى تراكم البيانات الرقمية، وازدياد القدرة الحاسوبية، إلى بروز مقاربات تعتمد على الإحصاء والتعلّم الآلي (Machine Learning)بدلًا من التمثيل الرمزي والمنطقي الذي كان سائدًا سابقًا. في هذا النموذج الجديد، لم تعد «المعرفة» تُبرمج يدويًا في الآلة، بل تُستنتج من البيانات الضخمة عبر عمليات التحليل الإحصائي.
أحدث هذا التحول ثورة في أداء الأنظمة الذكية، لكنه في الوقت نفسه عمّق المسافة بين البحث العلمي والفلسفة. فالنماذج الرياضية في التعلّم العميق لا تُعنى كثيرًا بمفاهيم مثل «الفهم» أو «المعنى» أو «النية»، بل تُركّز على الوظيفة والنتيجة فقط. ومن هنا نشأ جيل جديد من الباحثين يرون أن الحديث عن «العقل» أو «الوعي» خارج عن إطار العلم التجريبي، وأن الفلسفة لا تضيف شيئًا عمليًا إلى أبحاثهم.
بدأ الوضع يتغيّر مؤخرًا. فالتقدّم السريع في أنظمة الذكاء الاصطناعي الحديثة وخاصة أنظمة التعلّم العميق (Deep Learning) والنماذج التوليدية (Generative Models) — أعاد إلى السطح أسئلة لم تعد قابلة للتجاهل: هل يمكن أن تمتلك الآلة وعيًا أو قصدًا؟ كيف نعرّف المسؤولية الأخلاقية عندما يتخذ النظام قرارات معقدة؟ ما طبيعة «الفهم» الذي تمتلكه النماذج اللغوية الكبرى؟ هذه الأسئلة التي كان يُنظر إليها في السابق بوصفها «ميتافيزيقية»، بدأت تفرض نفسها الآن على النقاشات التقنية والسياسية والاقتصادية. ولذلك يرى كونيتزر أن الوقت قد حان لعودة الحوار بين الفلسفة والذكاء الاصطناعي بعد عقودٍ من الانفصال.
من بين الأسئلة الكبرى التي تثيرها الفلسفة حول الذكاء الاصطناعي يبرز السؤال التالي بوصفه أكثرها جوهرية وإثارة: هل يمكن أن تمتلك الآلة وعيًا حقيقيًا؟ ورغم بساطة السؤال في ظاهره، إلا أنه يواجه صعوبات مفهومية ومنهجية عميقة. فنحن لا نملك حتى الآن تعريفًا قاطعًا لماهية الوعي لدى الإنسان نفسه، ولا نعرف كيف أو لماذا تنشأ التجربة الذاتية من المادة العضوية. فما بالك بمحاولة تعميمها على كيان صناعي مصنوع من السيليكون!
يُعدّ الوعي، أو ما يسميه الفلاسفة “الخبرة الذاتية" واحدًا من أكثر الظواهر استعصاءً على التفسير العلمي. يمكننا بسهولة قياس السلوك الذكي، لكن لا توجد طريقة مباشرة لقياس الإحساس الذاتي. فلا أحد يستطيع أن “يرى” الوعي في عقل الآخر، بل كل ما نملكه هو استدلال غير مباشر من خلال السلوك والكلام. لهذا السبب، يبقى السؤال ما إذا كانت الآلة يمكن أن تكون واعية سؤالًا ميتافيزيقيًا بامتياز، لأن الإجابة عليه تتوقف على ما نعتبره شرطًا كافيًا للوعي.
كان اختبار تورينغ الذي طُرح عام 1950 محاولة لتجاوز هذه المعضلة. فبدلًا من البحث في “ما إذا كانت الآلة تفكر بالفعل”، اقترح تورينغ أن نكتفي بملاحظة ما إذا كان سلوكها لا يمكن تمييزه عن سلوك الإنسان. لكن هذا التحوّل من الوعي إلى السلوك هو ما جعل الاختبار مثيرًا للجدل فلسفيًا. فكثير من الفلاسفة يرون أن الآلة يمكن أن تجتاز اختبار تورينغ من خلال تقليد ذكي للكلام البشري، دون أن تمتلك أي وعي ذاتي أو قصد حقيقي. وقد عبّر الفيلسوف جون سيرل (John Searle) عن هذا الموقف في تجربته الشهيرة المعروفة باسم “حجة الغرفة الصينيت" التي نشرها عام 1980. ومفادها "تخيل أن شخصًا لا يعرف اللغة الصينية يوضع داخل غرفة مغلقة تحتوي على مجموعة ضخمة من القواعد التي تشرح كيفية ترتيب الرموز الصينية ردًا على رموز أخرى. وعندما تُمرّر إليه جمل صينية من الخارج، يستطيع باستخدام القواعد أن يقدّم إجاباتٍ صحيحة نحويًا ومنطقيًا بحيث يظنّ المراقب الخارجي أنه يفهم الصينية. لكن هذا الشخص لا يفهم شيئًا في الواقع، إنه يعالج الرموز شكليًا دون أي إدراك لمعناها. وهكذا، حتى لو كان النظام ككل (الغرفة) يبدو ذكيًا، فلا وجود لـ«فهم» أو «وعي» في أي جزء منه." بالنسبة لسيرل، فإن الحاسوب في نهاية المطاف ليس سوى غرفة صينية كبرى يتلاعب بالرموز وفقًا لقواعد، لكنه لا يعرف ما الذي تعنيه الرموز. إنه «يشبه الفهم» فقط، ولا يمتلك وعيًا حقيقيًا.
أثارت تجربة سيرل نقاشًا لم يتوقف حتى اليوم. ويرى بعض الباحثين أن حجّته تغفل فكرة التكامل البنيوي: فالوعي — وفقًا لهم — لا يوجد في أجزاء النظام منفصلة، بل ينشأ من الكل المترابط الذي يتضمن المعالجة والمخرجات. ومن هؤلاء الفيلسوف دانيال دينيت (Daniel Dennett)، الذي يرى أن الوعي ليس «جوهرًا سريًا» بل عملية معقّدة من المعالجة المعلوماتية. فإذا بلغ نظام ما درجة كافية من التعقيد الوظيفي، وأظهر القدرة على التمثيل الذاتي والتأمل، فإن وصفه بأنه «واعٍ» ليس خطأ لغويًا أو مجازيًا، بل هو امتداد طبيعي لمفهوم الوعي نفسه. كذلك، طوّر علماء الأعصاب نظرية تُعرف ب “التكامل المعلوماتي" التي قدّمها جوليـو تونوني، وتنصّ على أن الوعي هو مقدار معين من الترابط المعلوماتي. وبناء على هذه النظرية، يمكن مبدئيًا قياس درجة الوعي رياضيًا، حتى في الأنظمة الاصطناعية. لكن كثيرًا من الفلاسفة يشكّكون في إمكانية أن تفسّر هذه النظرية ما يجعل التجربة ذاتية وشعورية بالمعنى العميق. فهي قد تفسّر التنظيم، لكنها لا تفسّر الإحساس نفسه ما يسميه ديفيد تشالمرز بـ «المسألة الصعبة للوعي.
يطرح تشالمرز السؤال التالي: لماذا يصاحب النشاط العصبي خبرة ذاتية؟ أي: لماذا لا تكون كل العمليات المعرفية ممكنة من دون شعور؟ ما الذي يجعل الألم مؤلمًا، واللون الأحمر أحمر؟ ولماذا لا تكون الآلة التي تحاكي السلوك البشري مجرد آلة فارغة تعمل دون أن «تشعر» بأي شيء؟ حتى الآن، لم يقدّم أحد تفسيرًا مقنعًا لكيفية نشوء الوعي من المادة، سواء أكانت عضوية أم سيليكونية. ولذلك يظل كثير من العلماء والفلاسفة متشككين في إمكانية أن تمتلك الآلة وعيًا حقيقيًا على الإطلاق. أما آخرون فيرون أن هذا التشكيك قد يكون انعكاسًا لتحيّز بشري، وأن الوعي ليس ظاهرة جوهرية غامضة، بل هو درجة من التعقيد التنظيمي قابلة للحدس والقياس. ومن ثم، فليس ثمة ما يمنع نظريًا من أن يظهر وعي اصطناعي حين تبلغ الأنظمة الذكية مستوى كافيًا من التعقيد والتكامل.
يرى كونيتزر أن المسألة تظل مفتوحة، لكن من المؤكد أن التطورات الراهنة في الذكاء الاصطناعي ستدفعنا إلى إعادة النظر في كثير من الافتراضات التي كانت تُعدّ بديهية في الفلسفة وعلم النفس. فقد لا يكون السؤال «هل يمكن أن تشعر الآلة؟» هو الأهم، بل «كيف سنعاملها حين تبدأ في التصرف كما لو كانت تشعر؟». إن هذا التحول من مسألة الوعي الداخلي إلى مسألة المسؤولية الأخلاقية هو ما سيمهّد الطريق للقسم التالي من المقال: الاعتبارات الأخلاقية في الذكاء الاصطناعي.
إن المجتمع العلمي مشغول منذ عدة عقود، ربما منذ أطلق ألن تورينغ (1912 – 1954) مشورع محكاة السلوك والتفكير الإنساني، أو تحويل الذكاء الإنساني إلى تكنولوجيا. منشئا بذلك منعطفا في مسار العلم والتكنولوجيا من محاكاة الجسد إلى محاكاة العقل ثم محاكاة الإدراك والوعي والتداعيات والتذكرن وربما السلوك والمشاعر والأفكار والمعتقدات.
لقد فتح تورينغ المجال لعاصفة من الأسئلة والتداعيات والمخاوف والطموحات، بل وايضا إعادة تعريف أنفسنا كبشر، وهل نحن كائنات رقمية؟ أو مجموعة من الدارات الكهربائية والفوتونات والالكترونات، نكون نحن تبعا لخريطة تشكلها وتحولها؟
لقد تحول الذكاء الاصطناعي إلى تقنية متداولة ومتاحة لجميع الناس وإن بمستويات مختلفة، وأصلح مجالا علميا راسخا في الجامعات والمختبرات والشركات المتخصصة بالتكنولوجيا، ويجب القول إن ما هو متحقق بالفعل أقل بكثير مما يبدو في وسائل الإعلام والسينما والدراما والخيال العلمي والشائعات المتداولة في الرأي العام وفي المجتمعات، وحتى في أوساط المثقفين والأكاديميين. لكن أيضا يجب القول إن الفجوة تتناقص بين الواقع والخيال، فقد أصبحت السيارات والطائرات آلية القيادة والروبوتات الذكية حقيقة واقعية وتكنولوجيا مستخدمة، ومن المؤكد أنها تغير في حياة الأمم والأفراد والعلاقات الاجتماعية والسياسية والدولية، لننظر على سبيل المثال إلى الحروب وتحولاتها بفعل الـ "درونز"
أطلق الفيلسوف بوستروم مدير معهد مستقبل الإنسانية في جامعة أكسفورد ومؤلف كتاب “الذكاء الفائق – المسارات، المخاطر، الاستراتيجيات” (Superintelligence: Paths, Dangers, Strategies, 2014). جدالا واسعا عندما تحدث عن حالة مستقبلية تكون فيها الآلات أكثر ذكاء من الإنسان! وما سوف يحدث للإنسان الذي يصنع آلة أذكى منه؟ هل سنتخلف عن الآلات؟ هل سوف يباد البشر بفعل الآلات التي صنعوها؟
وفي المقابل فإن كثيرا من الباحثين وخاصة في المجال العلمي والتكنولوجي يعتبرون تأملات بوستروم مجرد افتراضات لا ترقى إلى مستوى البحث العلمي الأكاديمي. لكن مفكرين وفلاسفة وقادة سياسيين واجتماعيين يأخذون الأمر على محمل الجدّ، وينطرون إلى باحثي ي الذكاء الاصطناعي بأنهم لا يهتمون بمستقبل البشرية؟ ويتمتعون بغرور أكاديمي يمنعهم من الرؤية الشاملة.
يشير الباحث فينسنت كونتيزر في دراسة منشورة في العام 2016 في مجلة "prospect" إلى أن ي الذكاء الاصطناعي يُعَدّ في الأصل حقلًا فلسفيًّا بامتياز. فالسؤال المركزي الذي بدأ به هذا المجال هو سؤال فلسفي خالص: هل يمكن للآلة أن «تفكر»؟ هذا السؤال نفسه هو ما طرحه آلان تورينغ (Alan Turing) عام 1950 في مقاله الشهير «الآلات الحاسبة والذكاء» (Computing Machinery and Intelligence) الذي نُشر في مجلة Mind.. في ذلك المقال، اقترح تورينغ أن طريقةً عمليةً لبحث السؤال هي ما أصبح يُعرف لاحقًا بـ "اختبار تورينغ"، وهو تجربة فكرية تقوم على وضع إنسان في حوار كتابي عبر الحاسوب مع طرفين مجهولين: أحدهما إنسان، والآخر آلة. فإذا لم يتمكن المحاور البشري من التفريق بينهما، فإننا نُسند للآلة سلوكًا يماثل الذكاء البشري على الأقل من الناحية العملية. لقد كان تورينغ فيلسوفًا بقدر ما كان عالم رياضيات ومنطقيًا. فهو لم يطرح اختبار تورينغ كتعريف نهائي للذكاء، بل كـ طريقة تجريبية لتجاوز الجدل الميتافيزيقي العقيم حول ماهية «العقل» أو «الوعي». من هنا نشأ الطموح الأساسي لحقل الذكاء الاصطناعي: تجسيد عمليات التفكير في نماذج رياضية قابلة للبرمجة.
يقول كونتنير : في منتصف القرن العشرين، كانت أجواء التفاؤل مهيمنة. فقد ظنّ كثير من العلماء أن بناء آلة ذكية تمامًا هو مسألة سنوات قليلة فقط. ففي مؤتمر دارتموث (Dartmouth Conference) عام 1956 الذي يُعدّ حدث التأسيس الرسمي للذكاء الاصطناعي كحقل علمي مستقل؛ صرّح المنظّمون، ومنهم جون مكارثي (John McCarthy) ومارفن مينسكي (Marvin Minsky)، بأنّ كل جوانب الذكاء يمكن مبدئيًا وصفها بدقة كافية لبرمجتها في آلة. لكن هذه الوعود الطموحة لم تتحقق بالسرعة المأمولة. فقد تبين أن مشكلاتٍ بسيطة ظاهريًا، مثل التعرّف على الأشياء في الصور، تتطلب قدرًا هائلًا من المعرفة السياقية والمرونة الإدراكية التي لم يكن بالإمكان آنذاك تمثيلها حسابيًا.
لكن مع تراكم الإخفاقات في مشاريع الطموحات الكبرى، دخل المجال ما سُمّي لاحقًا بـ «شتاء الذكاء الاصطناعي» (AI Winter) — وهي فترة من خيبة الأمل وتراجع التمويل والاهتمام. خلال هذه الفترة، اتجه الباحثون نحو البراغماتية والجزئية: بدلًا من محاولة بناء عقل شامل يحاكي الإنسان، انصبّ التركيز على حلول محددة لمشكلات ضيقة، مثل لعب الشطرنج، أو التعرّف على الكلام، أو البرمجة المنطقية. وقد ولّد هذا التحوّل نوعًا من القطيعة بين الفلسفة والذكاء الاصطناعي العلمي. فبينما ظل الفلاسفة يناقشون الوعي والمعنى والعقل، انشغل الباحثون بكتابة خوارزميات قادرة على الأداء الفعلي. وهكذا، صار كثير من علماء الحاسوب ينظرون إلى الفلاسفة على أنهم غارقون في التأملات غير المثمرة، بينما رأى الفلاسفة أن الباحثين في الذكاء الاصطناعي، قد تنازلوا عن الأسئلة الجوهرية لصالح تقنيات براغماتية سطحية.
في التسعينيات وبدايات الألفية، شهد الحقل تحوّلًا نوعيًا جديدًا. فقد أدّى تراكم البيانات الرقمية، وازدياد القدرة الحاسوبية، إلى بروز مقاربات تعتمد على الإحصاء والتعلّم الآلي (Machine Learning)بدلًا من التمثيل الرمزي والمنطقي الذي كان سائدًا سابقًا. في هذا النموذج الجديد، لم تعد «المعرفة» تُبرمج يدويًا في الآلة، بل تُستنتج من البيانات الضخمة عبر عمليات التحليل الإحصائي.
أحدث هذا التحول ثورة في أداء الأنظمة الذكية، لكنه في الوقت نفسه عمّق المسافة بين البحث العلمي والفلسفة. فالنماذج الرياضية في التعلّم العميق لا تُعنى كثيرًا بمفاهيم مثل «الفهم» أو «المعنى» أو «النية»، بل تُركّز على الوظيفة والنتيجة فقط. ومن هنا نشأ جيل جديد من الباحثين يرون أن الحديث عن «العقل» أو «الوعي» خارج عن إطار العلم التجريبي، وأن الفلسفة لا تضيف شيئًا عمليًا إلى أبحاثهم.
بدأ الوضع يتغيّر مؤخرًا. فالتقدّم السريع في أنظمة الذكاء الاصطناعي الحديثة وخاصة أنظمة التعلّم العميق (Deep Learning) والنماذج التوليدية (Generative Models) — أعاد إلى السطح أسئلة لم تعد قابلة للتجاهل: هل يمكن أن تمتلك الآلة وعيًا أو قصدًا؟ كيف نعرّف المسؤولية الأخلاقية عندما يتخذ النظام قرارات معقدة؟ ما طبيعة «الفهم» الذي تمتلكه النماذج اللغوية الكبرى؟ هذه الأسئلة التي كان يُنظر إليها في السابق بوصفها «ميتافيزيقية»، بدأت تفرض نفسها الآن على النقاشات التقنية والسياسية والاقتصادية. ولذلك يرى كونيتزر أن الوقت قد حان لعودة الحوار بين الفلسفة والذكاء الاصطناعي بعد عقودٍ من الانفصال.
من بين الأسئلة الكبرى التي تثيرها الفلسفة حول الذكاء الاصطناعي يبرز السؤال التالي بوصفه أكثرها جوهرية وإثارة: هل يمكن أن تمتلك الآلة وعيًا حقيقيًا؟ ورغم بساطة السؤال في ظاهره، إلا أنه يواجه صعوبات مفهومية ومنهجية عميقة. فنحن لا نملك حتى الآن تعريفًا قاطعًا لماهية الوعي لدى الإنسان نفسه، ولا نعرف كيف أو لماذا تنشأ التجربة الذاتية من المادة العضوية. فما بالك بمحاولة تعميمها على كيان صناعي مصنوع من السيليكون!
يُعدّ الوعي، أو ما يسميه الفلاسفة “الخبرة الذاتية" واحدًا من أكثر الظواهر استعصاءً على التفسير العلمي. يمكننا بسهولة قياس السلوك الذكي، لكن لا توجد طريقة مباشرة لقياس الإحساس الذاتي. فلا أحد يستطيع أن “يرى” الوعي في عقل الآخر، بل كل ما نملكه هو استدلال غير مباشر من خلال السلوك والكلام. لهذا السبب، يبقى السؤال ما إذا كانت الآلة يمكن أن تكون واعية سؤالًا ميتافيزيقيًا بامتياز، لأن الإجابة عليه تتوقف على ما نعتبره شرطًا كافيًا للوعي.
كان اختبار تورينغ الذي طُرح عام 1950 محاولة لتجاوز هذه المعضلة. فبدلًا من البحث في “ما إذا كانت الآلة تفكر بالفعل”، اقترح تورينغ أن نكتفي بملاحظة ما إذا كان سلوكها لا يمكن تمييزه عن سلوك الإنسان. لكن هذا التحوّل من الوعي إلى السلوك هو ما جعل الاختبار مثيرًا للجدل فلسفيًا. فكثير من الفلاسفة يرون أن الآلة يمكن أن تجتاز اختبار تورينغ من خلال تقليد ذكي للكلام البشري، دون أن تمتلك أي وعي ذاتي أو قصد حقيقي. وقد عبّر الفيلسوف جون سيرل (John Searle) عن هذا الموقف في تجربته الشهيرة المعروفة باسم “حجة الغرفة الصينيت" التي نشرها عام 1980. ومفادها "تخيل أن شخصًا لا يعرف اللغة الصينية يوضع داخل غرفة مغلقة تحتوي على مجموعة ضخمة من القواعد التي تشرح كيفية ترتيب الرموز الصينية ردًا على رموز أخرى. وعندما تُمرّر إليه جمل صينية من الخارج، يستطيع باستخدام القواعد أن يقدّم إجاباتٍ صحيحة نحويًا ومنطقيًا بحيث يظنّ المراقب الخارجي أنه يفهم الصينية. لكن هذا الشخص لا يفهم شيئًا في الواقع، إنه يعالج الرموز شكليًا دون أي إدراك لمعناها. وهكذا، حتى لو كان النظام ككل (الغرفة) يبدو ذكيًا، فلا وجود لـ«فهم» أو «وعي» في أي جزء منه." بالنسبة لسيرل، فإن الحاسوب في نهاية المطاف ليس سوى غرفة صينية كبرى يتلاعب بالرموز وفقًا لقواعد، لكنه لا يعرف ما الذي تعنيه الرموز. إنه «يشبه الفهم» فقط، ولا يمتلك وعيًا حقيقيًا.
أثارت تجربة سيرل نقاشًا لم يتوقف حتى اليوم. ويرى بعض الباحثين أن حجّته تغفل فكرة التكامل البنيوي: فالوعي — وفقًا لهم — لا يوجد في أجزاء النظام منفصلة، بل ينشأ من الكل المترابط الذي يتضمن المعالجة والمخرجات. ومن هؤلاء الفيلسوف دانيال دينيت (Daniel Dennett)، الذي يرى أن الوعي ليس «جوهرًا سريًا» بل عملية معقّدة من المعالجة المعلوماتية. فإذا بلغ نظام ما درجة كافية من التعقيد الوظيفي، وأظهر القدرة على التمثيل الذاتي والتأمل، فإن وصفه بأنه «واعٍ» ليس خطأ لغويًا أو مجازيًا، بل هو امتداد طبيعي لمفهوم الوعي نفسه. كذلك، طوّر علماء الأعصاب نظرية تُعرف ب “التكامل المعلوماتي" التي قدّمها جوليـو تونوني، وتنصّ على أن الوعي هو مقدار معين من الترابط المعلوماتي. وبناء على هذه النظرية، يمكن مبدئيًا قياس درجة الوعي رياضيًا، حتى في الأنظمة الاصطناعية. لكن كثيرًا من الفلاسفة يشكّكون في إمكانية أن تفسّر هذه النظرية ما يجعل التجربة ذاتية وشعورية بالمعنى العميق. فهي قد تفسّر التنظيم، لكنها لا تفسّر الإحساس نفسه ما يسميه ديفيد تشالمرز بـ «المسألة الصعبة للوعي.
يطرح تشالمرز السؤال التالي: لماذا يصاحب النشاط العصبي خبرة ذاتية؟ أي: لماذا لا تكون كل العمليات المعرفية ممكنة من دون شعور؟ ما الذي يجعل الألم مؤلمًا، واللون الأحمر أحمر؟ ولماذا لا تكون الآلة التي تحاكي السلوك البشري مجرد آلة فارغة تعمل دون أن «تشعر» بأي شيء؟ حتى الآن، لم يقدّم أحد تفسيرًا مقنعًا لكيفية نشوء الوعي من المادة، سواء أكانت عضوية أم سيليكونية. ولذلك يظل كثير من العلماء والفلاسفة متشككين في إمكانية أن تمتلك الآلة وعيًا حقيقيًا على الإطلاق. أما آخرون فيرون أن هذا التشكيك قد يكون انعكاسًا لتحيّز بشري، وأن الوعي ليس ظاهرة جوهرية غامضة، بل هو درجة من التعقيد التنظيمي قابلة للحدس والقياس. ومن ثم، فليس ثمة ما يمنع نظريًا من أن يظهر وعي اصطناعي حين تبلغ الأنظمة الذكية مستوى كافيًا من التعقيد والتكامل.
يرى كونيتزر أن المسألة تظل مفتوحة، لكن من المؤكد أن التطورات الراهنة في الذكاء الاصطناعي ستدفعنا إلى إعادة النظر في كثير من الافتراضات التي كانت تُعدّ بديهية في الفلسفة وعلم النفس. فقد لا يكون السؤال «هل يمكن أن تشعر الآلة؟» هو الأهم، بل «كيف سنعاملها حين تبدأ في التصرف كما لو كانت تشعر؟». إن هذا التحول من مسألة الوعي الداخلي إلى مسألة المسؤولية الأخلاقية هو ما سيمهّد الطريق للقسم التالي من المقال: الاعتبارات الأخلاقية في الذكاء الاصطناعي.