تريد شركة «غوغل» أن تبني نظام ذكاء اصطناعي يمكنه بدوره أن يبني أنظمة ذكاء اصطناعي وخوارزميات جديدة، وبذلك قد تخرج الشركة البشر من عملية بناء أنظمة الذكاء الاصطناعي ناسفة بذلك كل ما يقال عن مستقبل الوظائف المتعلقة بالتكنولوجيا. المشروع الذي أطلقته غوغل منذ أشهر أُظهرت أولى نتائجه هذا الشهر وقد أتت مبهرة

في أيار الفائت، أطلقت غوغل مشروع “AutoML”، ويختصر حرفي ML كلمتان هما: MACHINE LEARNING أي تعلّم الآلة. تقول الشركة إنّ هدفها من المشروع هو مساعدة الشركات التي تفتقر إلى خبراء ذكاء اصطناعي في بناء أنظمة بسهولة بحيث يصبح الذكاء الاصطناعي متاحاً أمام الجميع. ولتحقيق هذا الهدف ستعطي الشركة أنظمة الذكاء الاصطناعي القدرة على بناء نفسها! المشروع جديٌّ وبدأ بالفعل بتحقيق نتائج مثيرة لكننا على طريق تحقيق ما نخشاه، فما قد يكون حلم لغوغل قد يتحول إلى كابوس للبشرية عندما يفقد البشر السيطرة على الذكاء الاصطناعي.

عند إعلانها عن المشروع قالت “غوغل”: “عادة، يتم تصميم نماذج التعلم الآلي لدينا بشق الأنفس من قبل فريق من المهندسين والعلماء. عملية تصميم نماذج التعلم الآلي يدوياً صعبة لأن مساحة البحث عن جميع النماذج الممكنة يمكن أن تكون ضخمة جداً! لهذا السبب، فإن عملية تصميم الشبكات غالباً ما تأخذ قدراً كبيراً من الوقت والتجريب من قبل أولئك الذين لديهم خبرة كبيرة في التعلم الآلي”. وبالتالي قررت الشركة أن تؤتمت هذه العملية، كيف؟ يقوم مشروع “AutoML” على خوارزميات التعلم التعزيزي بحيث يمكن لشبكة عصبية مراقِبة أن تقترح بنية نموذج “الطفل”، والتي يمكن بعد ذلك أن يتم تدريبها للقيام بمهمة معينة. ثم يتم استخدام هذه النتائج لإبلاغ المراقب كيفية تحسين مقترحاتها للجولة المقبلة. نكرر هذه العملية آلاف المرات: توليد بنى جديدة، اختبارها، وإعطاء النتائج إلى وحدة تحكم للتعلم منها. في نهاية المطاف يتعلم المراقب تعيين احتمالات عالية لمناطق هيكلية يمكنها أن تحقق دقة أفضل على قاعدة بيانات التحقق من الصحة، واحتمالات ضعيفة لمناطق هيكلية سيئة. طبّقت “غوغل” هذا النهج على مجموعتين من البيانات المرجعية في التعلم العميق وفي مجموعتي البيانات، نجح الذكاء الاصطناعي في تصميم نماذج تحقق دقة مشابهة لأحدث النماذج التي صممها خبراء التعلم الآلي بما في ذلك خبراء الشركة نفسها. فقد أعلنت الشركة هذا الشهر أن الخوارزميات التي صممها الذكاء الاصطناعي لتحديد الأشخاص في الصور حققت دقة بنسبة 82.7% متجاوزة جميع النماذج التي بنتها الشركة.

يطرح هذا التطور المثير والخطير الكثير من الأسئلة حول مخاطر عدم ضبط الذكاء الاصطناعي خصوصاً أن غوغل قررت إعطاءه القدرة على تطوير نفسه ما قد يسمح له بأن يتجاوز البشر ويصبح أقوى وقد يسيطر عليهم. هذا التخوف من الذكاء الاصطناعي ليس عابراً أو مبالغاً به إذ أن التحذيرات ترتفع يوماً بعد يوم من قبل أبرز أرباب التكنولوجيا لوضع ضوابط لهذا الأمر ما خلق صراعاً بين قطبين: الأول يدعو إلى إطلاق يد الشركات والباحثين في تطوير الذكاء الاصطناعي، والثاني يتوقع مستقبلاً قاتماً للبشر في حال لم يتم ضبط عملية تطوير الذكاء الاصطناعي. يجادل الطرف الأول بأن السيناريوهات السوداوية التي يحذر منها المتخوفون من الذكاء الاصطناعي “لا أساس لها من الصحة لأننا لن نكون أبداً أغبياء بحيث نعطي الآلات القدرة على التكاثر والتطور وتشكيل وعي”، إلا أن هذه الحجة سقطت مع كشف غوغل وشركات أخرى عن مشاريعها، ليتضح لنا أنها أعطت الآلات هذه القدرات.
في ورقة بحثية قدمها الباحث في أنظمة الذكاء الاصطناعي ستيفن اوموهاندرو عام 2008 تحت عنوان “محركات الذكاء الاصطناعي الأساسية” يقول الباحث إن لا أحد يتخيل أن يكون هناك من ضرر في بناء روبوت يلعب الشطرنج لكن احذروا! “في هذه الورقة نحن نرى أن مثل هذا الروبوت سيكون في الواقع خطراً ما لم يتم تصميمه بعناية فائقة. من دون الاحتياطات الخاصة، سيقاوم هذا الروبوت تعطيله أو إيقافه، سيحاول اقتحام آلات أخرى وسيقوم بنسخ نفسه ليتكاثر وسوف يحاول الحصول على الموارد من دون أي اعتبار لسلامة أي شخص آخر. هذه السلوكيات الضارة التي قد تحدث لن تحصل بسبب برمجة الروبوت ليفعل هذه الأمور إنما بسبب الطبيعة الفعلية للنظم المدفوعة بهدف”. يقول اوموهاندرو إنه يمكن للمرء أن يتصور أن أنظمة الذكاء الاصطناعي التي تصنع بأهداف غير ضارة ستكون غير ضارة، لـذلك نحتاج لأن نصمم الأنظمة الذكية بعناية لمنعها من التصرف بطرق ضارة.
في الورقة يحدد اوموهاندرو عدداً من الدوافع التي سوف تظهر في أنظمة الذكاء الاصطناعي المتقدمة مهما كان تصميمها، ويدعوها دوافع لأنها ميول ستظهر في الأنظمة إلا إذا أبطلناها. يبدأ اوموهاندرو من خلال إظهار أن أنظمة البحث عن الأهداف سيكون لها دوافع لنمذجة عملياتها الخاصة وتحسين نفسها. ثم يوضح أن أنظمة تحسين الذات سوف تكون مدفوعة لتوضيح أهدافها وتمثيلها بوصفها وظائف ذات فائدة اقتصادية. كما أنها ستسعى جاهدة إلى اتخاذ إجراءات تقارب السلوك العقلاني. ومن شأن ذلك أن يقود جميع النظم تقريباً إلى حماية وظائفها من التعديل في حين قد تعدل بعض النظم وظائفها بنفسها. يناقش اوموهاندرو أن الدافع لحماية النفس سيدفع الأنظمة الى الحؤول دون تعرضها للأذى.
ما تقوم به غوغل، وعلى عكس ما دعا اليه اوموهاندرو بإبطال الدوافع، هو أنها تقوم بتعزيز دافع التطوير الذاتي للأنظمة الذكية ما قد يؤدي إلى عواقب جسيمة وهي قد تسرّع في تحقيق ما حذّر منه اوموهاندرو منذ 10 سنوات.