يورد المؤلف الأمريكي مايكل لويس في كتابه the undoing project (مشروع التراجع أو التفكيك)، سؤال أحد الصحافيين لعالم النفس الإسرائيلي – الأمريكي عاموس تفيرسكي، إن كان ما يفعله، مع شريكه دانيال كانيمان، هو دراسة الذكاء الاصطناعي فيرد تفيرسكي ساخرا: لا.. مشروعنا هو دراسة الغباء الطبيعي (للبشر)!

أثبت الباحثان أن الدماغ البشري أكثر عرضة للخطأ مما يود معظمنا تصديقه، وكشفا العديد من الطرق التي يخدع بها العقل نفسه، وساهمت أبحاثهما في تعديل طريقة فهم السلوك البشري، وقد توسع تطبيق نتائج تلك الأبحاث في مجالات علم النفس والطب والاقتصاد (الذي حصل كانيمان على جائزة نوبل فيه).

تعالج أطروحة روبرت أورنشتاين وبول أيرليش، في كتابهما «عقل جديد لعالم جديد: كيف نغير طريقة تفكيرنا لنحمي مستقبلنا» أيضا فكرة أن العقل الذي لا نزال نستخدمه يناسب القرون الماضية، وليس العصر الحديث (مع الأخذ في الاعتبار أن الكتاب نشر عام 1989 أي قبل التعقيد الرهيب الناشئ من تأثير الإنترنت ووسائل التواصل الاجتماعي والهواتف النقالة). أثبت الكاتبان أن الجهاز الذهني البشري صار عاجزا عن فهم العالم المعقد الجديد، إذا لم نطور وعينا للتلاؤم مع ما أنجزه عالم جديد يمتلئ بتهديدات لم يسبق لها مثيل.

شرح الكتاب، في الكثير من الأمثلة، لماذا صمّم العقل البشري على التأثر بالتغيرات المثيرة الحادة الصغيرة، وأعطى أمثلة على انعكاس هذا التصميم على قادة وحكومات الدول الذين يتخذون قرارات استراتيجية خطيرة، متأثرين بتلك الحوادث المثيرة، مثل وقوع حادث إرهابي، وسنشهد، لاحقا، تصديقا فظيعا على هذه الفكرة مع قرار إدارة جورج بوش احتلال أفغانستان والعراق انتقاما لعمليات تنظيم «القاعدة» الإرهابية في أيلول/سبتمبر 2001.

حوادث إطلاق النار المحلية أخطر من الإرهاب؟
يتأثر الناس في أمريكا كثيرا، كما يقول الكتاب، بحوادث الإرهاب، وبنتائج مباريات كرة القدم، وأسعار الأسهم، ولكنهم لا يهتمون بحوادث لإطلاق النار تقتل سنويا عددا أكبر «من كل ما قتله الإرهابيون في تاريخ البلاد»، ولا بعدد الذين يقتلون في حوادث الطرق، أو بأمراض السرطان والقلب والسكري، الذين هم أكثر بكثير. لا يرتكس البشر عموما للأحداث البعيدة المدى، التي تشكل خطورة أكبر بكثير، ليس عليهم فحسب، بل على عناصر الحياة والطبيعة والمناخ وكوكب الأرض، مثل التغير المناخي والانفجار السكاني وتزايد الأسلحة النووية.

شارك كانيمان وتفيرسكي في حرب 1973، ضمن فرع السايكولوجيا في الجيش الإسرائيلي، وتوصلا إلى استنتاج ان القرارات الحاسمة التي يقوم بها المسؤولون والتي تؤثر في دولهم (والبشر عموما)، لا تختلف عما كان يفعله البشر قبل آلاف الأعوام، كونهم يلجؤون إلى الحدس والاستنتاجات الشخصية المحدودة بقدرات العقل البشري الموروثة من عصور سحيقة!

ماذا نفعل حين نجد «أن كائنا يملك نظاما هرمونيا لا يختلف عن نظام جرذ الغابة، قد أعطي إمكانية تدمير كل شيء حيّ بكبس بضعة أزرار»، كما يقول كانيمان؟ كانت فكرة استخدام الذكاء الاصطناعي (وليس تدريب العقل البشري كما يقترح أورنشتاين وأيرليش) نتاجا منطقيا لفقدان الثقة بالعقل البشري، كما أثبتته أبحاث كانيمان وتفيرسكي فهذه هي الطريقة العلمية الموثوقة لأخذ القرارات المهمة، بدل الاعتماد على الحدوس والاستنتاجات الخاطئة للبشر. تنبه عدد من المؤثرين الكبار في شؤون التكنولوجيا الحديثة، مثل بيل غيتس، مؤسس مايكروسوفت، وإيلون ماسك، مالك شركتي تسلا وتويتر، وسام ألتمان، الذي أطلق موقع «تشات جي بي تي» مؤخرا، إلى خطورة أبحاث الذكاء الاصطناعي، وستيوارت رسل، وستيفن هوكنغ، وقد اجتمع هؤلاء في «مؤتمر الذكاء الاصطناعي المفيد، الذي نظمته «مؤسسة مستقبل الحياة»، وعقد في كانون الثاني/يناير 2015 في بلدة أسيلمور في كاليفورنيا.

نتج عن المؤتمر إنشاء منظومة من 23 مبدأً تسمى «مبادئ أسيلومار للذكاء الاصطناعي»، التي تهدف إلى توجيه تطوير ونشر الذكاء الاصطناعي بطريقة آمنة ومفيدة للبشرية. تغطي هذه المبادئ مجموعة من الموضوعات، من الشفافية والمساءلة إلى منع الحوادث الكارثية وحماية الخصوصية والأمن.

من ذرق الطير إلى السيطرة على العالم!
توصلنا واقعة فشل كانيمان وتفيرسكي في «ترشيد صناع القرار»، والخلاف الحاصل حاليا بين إيلون ماسك وسام ألتمان حول مخاطر الذكاء الاصطناعي، إلى احتمالين وجيهين: الأول هو أن حكومات العالم لا يمكن ترشيدها، والثاني، هو أن الحكومات (والشركات)، كما فعلت دائما، يمكن أن تقوم بتوظيف الأبحاث الجديدة ليس لمنعها من ارتكاب أخطاء سياسية أو عسكرية او اقتصادية، بل لتعزيز استراتيجياتها، وهو ما يعني أن الذكاء الاصطناعي سيستخدم، كما حصل في مجمل الاختراعات البشرية السابقة، لصالح تعزيز سرديات القوة والسيطرة والتحكم.

بعد قصف هيروشيما وناكازاكي زاد إنتاج القنابل النووية، ووصل مخزونها إلى مئات آلاف الرؤوس، وبعد الكوارث الفظيعة التي تسببها الحروب، والمخاطر الهائلة التي يمكن أن تتولد عنها، ما زلنا نشهد حروب إبادة، وصراعات عالمية على الأرض ومصادر الطاقة والبشر (هناك حرب جرت عام 1879 بين بوليفيا وبيرو وتشيلي على احتكار ذرق الطيور الذي كان أحد مصادر الطاقة).

في النهاية، تبنى «صانع القرار» الإسرائيلي، والشركات الإسرائيلية، تقنيات الذكاء الاصطناعي، ولكن ليس لاستخدامه في تحقيق العدالة والتنمية، بل في تعزيز الأمن، والتسلح، والتجسس، إلى درجة أن الدولة العبرية صارت قطبا عالميا في اختراق أجهزة الكومبيوتر والهواتف (كما حصل في قضية بيغاسوس)، وفي التلاعب في انتخابات عشرات الدول وخدمة القادة المستبدين فيها (كما حصل في قضية خورخي).

الصين أيضا مثال واضح على هذا المآل، فهي تمتلك إحدى كبريات شبكات العالم من كاميرات المراقبة التي تستخدم تقنيات التعرف على الوجوه، وتتابع مئات الملايين من السكان عبر الكاميرات والإنترنت وأجهزة الهاتف الجوال والأقمار الاصطناعية، وتقوم بإحصاء حركاتهم وفرز تصرفاتهم عبر نظام معقد يقوم على رفع أو خفض قيمة المواطنين، حسب «عدادات» أمنية تقوم، مثل ملاكي الحساب في الميثولوجيا الإسلامية، بحساب حسنات وخطايا الصينيين.

إذا كانت «المخالفات» البسيطة ستؤدي بالصيني إلى حرمانه من مزايا معينة، كزيارة بكين مثلا، فإن «المخالفات» السياسية، ستؤدي طبعا إلى زجه في مهالك رهيبة، يمكن أن تمس جماعات بشرية بأكملها، كما هو الحال مع أقلية الأويغور، التي يعامل اعتناقها للإسلام باعتباره مرضا نفسيا يمكن القضاء عليه بزجهم في «معسكرات ثقافية» يخرجون منها معافين من المرض الديني المعادي للدولة الشيوعية! قدم السياق التاريخي والسياسي لكانيمان وتفيرسكي جوابا واضحا على المسألة التي نبحثها هنا، فهدفهما الأول كان «ترشيد صانع القرار «الإسرائيلي، الذي قام عمليا باستخدام نتائج بحوثهما لصالح المؤسسة العسكرية ـ الأمنية، وهو ما سيفعله باحثون آخرون من أمم أخرى، بمعنى أن سردية صعود جماعة ما ستقوم، كما هو جار في كل مكان، على سردية التغلب على أخرى (أو على إفنائها)، وربما لا وجود حقيقي لسردية عامة لنجاة البشرية إلا في مخيلاتنا.

لقد تم توظيف الذكاء الاصطناعي ولكن في خدمة الغباء الطبيعي!

القدس العربي