هل يمثل الذكاء الاصطناعي خطراً؟
بقلم: م/مظلوم الزيات
هذه المقالة قد كُتبت بالكامل باستخدام الذكاء البشري، ولكن في المستقبل القريب، سيُستخدم الذكاء الاصطناعي في كتابة المقالات والكتب.
الذكاء الاصطناعي (Artificial Intelligence – AI) هو بالفعل تكنولوجيا يمكن أن تساعدنا في علاج الأمراض، وتحقيق الاكتشافات العلمية، والتغلب على التحديات.
لكنه قد يجلب مخاطر جسيمة أيضاً.
يشير مصطلح الذكاء الاصطناعي إلى الأنظمة أو الأجهزة التي تحاكي الذكاء البشري لأداء المهام، والتي يمكنها تحسين نفسها استناداً إلى المعلومات التي تجمعها.
الذكاء الاصطناعي يتعلق بالقدرة على التفكير وتحليل البيانات أكثر من تعلقه بشكل معين أو وظيفة معينة.
وعلى الرغم من تقديم صور للروبوتات عالية الأداء الشبيهة بالإنسان التي تسيطر على العالم، فإن الهدف ليس استبدال البشر، بل تعزيز القدرات والمساعدات البشرية بشكل كبير.
هل يمكن تزويد الذكاء الاصطناعي بالأخلاق الحميدة؟
يقول جيم ديفيز، أستاذ مساعد في معهد علم الإدراك بجامعة كارتون في أوتاوا بكندا، إن المخاوف من أن يمثل الذكاء الاصطناعي خطراً إذا طور وعيًا ذاتيًا هي مخاوف في غير محلها.
لكن ما الذي يجعلنا نقلق من الذكاء الاصطناعي؟
تمت مناقشة التهديدات الممكنة التي تمتلكها الآلات الذكية، وصدر تقرير عن البيت الأبيض في هذا الصدد.
بعد أن كتب اثنان من المعنيين تعليقاً نشر في دورية Nature، يمكن لتركيز الاهتمام العلمي والسياسي على المخاطر المستقبلية الشديدة للذكاء الاصطناعي أن يصرف انتباهنا عن مشكلاته القائمة بالفعل.
وتوحي تحذيرات مفكرين مرموقين أمثال بيل جيتس وستيفن هوكينج وغيرهما أنهم قلقون من أن تصبح الآلات الذكية ذاتية الوعي، وفي لحظة ما، قد تستيقظ قطعة من البرمجيات وتولي رغباتها أفضلية على غيرها، مما يهدد وجود البشرية.
وعندما نتخوف من الذكاء الاصطناعي، فإن وعي الآلة ليس بالأهمية التي يحسبها الناس.
في الواقع، قراءة متأنية لتحذيرات بيل جيتس وهوكينج وغيرهما تظهر أنهم لم يبدوا الوعي قط.
فالذكاء الاصطناعي يصبح معرفاً بأنه خطي أو غيره لا يقوم كلياً على كونه واعياً أم لا.
بينما علينا أن ندرك أن منع الذكاء الاصطناعي عن تطوير وعي ليس كمنعه عن تطوير القدرة على إحداث الأذى.
القلق من وعي الآلة يبدو أنه مصدره عامة الناس والصحفيون.
يرى بعض الباحثين أن الوعي جزء مهم من الإدراك البشري (رغم أنهم لا يتفقون على ماهية وظائفه)، ويرد بعضهم على ذلك بأنه لا يقوم بأي وظيفة على الإطلاق.
لكن إذا كان الوعي مهمًا جدًا للذكاء البشري، فعلينا بذل مزيد من الجهد في سبيل أهداف البرمجة والقيم والقواعد الأخلاقية.
وقد يكون الأمر أن الوعي، أو إدراكنا له، يأتي مع الذكاء الفائق تلقائيًا، أي أن الطريقة التي نحكم بها على شيء ما بأنه واعٍ أو غير واعٍ يمكن أن تقوم على تفاعلاتنا معه.
فالآلات فائقة الذكاء قد تكون قادرة على التحدث معنا وتشكيل وجوه ذات تعبيرات عاطفية كما لو أنها شخص ما نخاطبه عبر سكايب، وهكذا يمكنها بسهولة أن تمتلك جميع الدلالات الخارجية على الوعي.
علينا أن نتذكر أن الآلة يمكن أن تكون ذكية بقدر كاف لتمثل تهديداً حقيقياً حتى دون أن تكون واعية.
يذكر تك بوستروم، الباحث في جامعة أكسفورد في كتابه “الذكاء الفائق”، أمثلة كثيرة على إمكانية أن يكون الذكاء الاصطناعي خطراً.
أحد تلك الأمثلة هو آلة ذكية طموحها الأساسي صنع الكثير والكثير من ملاقط الأوراق.
فبوجود ذكاء متطور فيها دون قيم، يمكن أن تجعلها تجنح إلى السيطرة على موارد العالم سعيًا وراء هدفها دون اكتراث بما قد يحدث للبشرية.
وربما تحاول آلة ذكية ذات أهداف من قبيل تقليص المعاناة محو البشرية لمصلحة بقية الحياة على الأرض.
إن هذه الآلات الافتراضية غير المسيطر عليها تمثل خطراً ليس لأنها واعية، بل لأنها مصنوعة بدون أخلاقيات محددة ومعقدة.
لذا، بدلاً من الانشغال بوعي الذكاء الاصطناعي، علينا بذل مزيد من الجهد في سبيل أهداف البرمجة والقيم والقواعد الأخلاقية.
وثمة سباق عالمي قائم لتطوير الذكاء الاصطناعي.
وعندما تظهر الآلة فائقة الذكاء إلى الوجود، سواء كانت واعية أم لا، فإنها ستستطيع تحسين نفسها وستبدأ في تغيير العالم وفقاً لقيمها الخاصة.
ختاماً: من الإجراءات الوقائية تجاه ذلك هو تمويل مشروع يهدف إلى ضمان أن تكون أول آلة فائقة الذكاء تحمل أخلاقاً حميدة، ويهدف كذلك إلى القضاء على أي آلة ذكية خبيثة.
وبوجود مجموعة جيدة من المبرمجين والباحثين ذوي التفكير الأخلاقي، من الجائز أن يحالفنا الحظ.