وقعت الكاتبة هيلدا معلوف مِلكي، الثلثاء الماضي، كتابها "الذكاء الاصطناعي ببساطة"، الصادر حديثًا عن "دار نوفل/هاشيت أنطوان"، ضمن سلسلة "إشراقات لتنمية الذات". في هذا الكتاب، تخلص الكاتبة إلى أن ما يحدّد مصيرنا ليس الذكاء الاصطناعيّ بل ما نختار أن نفعله به، داعية الجميع إلى فهمه لتطويعه. بأسلوب سلس، ولغة مُبسطة، وأمثلة قريبة من واقعنا، تشرح مِلكي في كتابها (112 صفحة)، كيف يعمل الذكاء الاصطناعيّ، وكيف يؤثر في حياتنا، وكيف يمكن لأيّ شخص، مهما كان عمره أو مستواه العلمي، أن يستخدمه بذكاء ومسؤولية.
في ما يلي، مقتطف من الكتاب بعنوان "هل يشكّل الذكاء الاصطناعيّ خطرًا؟"، تنشره "نداء الوطن" في صفحة "فصل من كتاب" لهذا الأسبوع.
من بين الأسئلة التي تُطرح باستمرارٍ اليوم، يتكرّر سؤالٌ بارزٌ يعبّر عن قلقٍ عميقٍ: "هل يمكن للذكاء الاصطناعيّ أن يُشكّل خطرًا على الإنسان؟". لم يعد هذا السؤال حكرًا على المتخصّصين أو صناع القرار فقط، بل أصبح موضوعًا للنقاش في المنازل، وفي المقاهي، وفي وسائل الإعلام، بل وحتى في المناهج التعليميّة. وقد ازدادتْ حدّة هذا القلق مع الانتشار الواسع للتطبيقات الذكيّة، إذ تجسّد جزءًا من مشاهد الخيال العلميّ التي تُصوّر الآلات وهي تسيطر على العالم أو تحلّ مكان الإنسان.
لكن قبل أن نغرق في الخوف، لا بدّ من التوقف قليلًا أمام الواقع. الذكاء الاصطناعيّ، في جوهره، ليس كائنًا واعيًا يمتلك إرادةً مستقلّة، ولا هو خصم شرّير يسعى لإيذائنا، إنه ببساطةٍ أداة أُنشئتْ على يد الإنسان، وتعمل بناءً على ما بُرمجتْ لأدائه. لا يمكن للذكاء الاصطناعيّ أن يتصرّف بمحض إرادته، ولا يمكنه أن يكره أو يحبّ أو يخطّط للهيمنة، لأنه لا يمتلك عاطفةً أو ضميرًا أو وعيًا بالوجود أصلًا. فالخطر لا يكمن في "نيّة" الآلة، بل في كيفيّة تصميمها واستخدامها، وفي مدى وعينا وحدود تدخلنا.
أحد الأخطار التذي يُجمع عليه المتخصّصون هو ما يُعرف بمشكلة "عدم قابليّة التفسير" في قرارات بعض أنظمة الذكاء الاصطناعيّ. فبعض هذه الأنظمة، وخصوصًا تلك المعتمِدة على التعلّم العميق، تصبح في مرحلةٍ ما معقدة إلى درجة تجعل من الصعب على الإنسان فهم كيف وصلتْ إلى نتائجها. تخيّل مثلًا أن نظامًا ذكيًّا يُقيّم طلبات التوظيف ويرفض أحد المتقدّمين، من دون أن يكون ثمّة سببٌ واضحٌ في السجلّ الشخصيّ أو المهنيّ. في مثل هذه الحالة، لا يمكن لصاحب القرار البشريّ أن يعرف ما إذا كان النظام عادلًا أم متحيّزًا، لأن الخوارزمية نفسها قد تكون "تعلّمتْ" من بياناتٍ غير متوازنةٍ أو منحازةٍ عن غير قصد. وهنا يتحوّل الذكاء الاصطناعيّ من أداة مساعدة إلى صندوقٍ أسودَ لا يمكن تفسير قراراته، وهو ما يثير القلقَ بشأن الشفافية والمساءلة.
من هنا نشير أيضًا إلى خطر التحيّز في البيانات. فالذكاء الاصطناعيّ يتعلّم من البيانات التي نزوّده بها، وإذا كانتْ هذه البيانات تحتوي على أنماطٍ غير عادلةٍ أو نماذجَ تمييزيّة، سوف يُعيد إنتاج هذه الأنماط ويُكرّسها. شهدنا حالاتٍ فعليّة في بعض الدول، حيث استُخدِمتْ أنظمة ذكاءٍ اصطناعيّ في اتخاذ قراراتٍ تتعلّق بالتوظيف أو الإقراض الماليّ أو حتى الإجراءات القضائيّة، وتبيّن لاحقًا أن بعض هذه الأنظمة اتخذ قراراتٍ متحيّزة ضدّ مجموعاتٍ معيّنةٍ بناءً على العرق أو الجنس أو الوضع الاجتماعيّ. هذه النتائج لم تكن بسبب "نيّةٍ سيّئةٍ" لدى الآلة، بل بسبب غياب الرقابة على جودة البيانات وحياديّتها.
من بين المخاوف الشائعة أيضًا، الخطر المرتبط بالاعتماد الزائد على الذكاء الاصطناعيّ. في عالمٍ يتجه نحو الأتمتة الكاملة، ثمّة قلقٌ حقيقيٌّ من أن يبدأ الإنسان بالتخلّي عن مهاراته الذهنيّة الأساسيّة، وأن يعتمد على الأنظمة الذكيّة في اتخاذ قراراتٍ شخصيّةٍ ومهنيّةٍ، وحتى عاطفيّة. تخيّل أن نصل إلى مرحلة لا نختار فيها ماذا نشاهد أو نقرأ أو نأكل، لأن نظامًا ذكيًّا يعرف "ما نحبّ" أكثر منا. هذا النوع من الراحة الزائدة قد يُضعف من قدراتنا التحليليّة، ويُقلّل من قدرتِنا على التفكير النقديّ، ما يجعلنا عرضة للتلاعب أو التأثير من دون أن نُدرك.
وثمّة مسألة حساسّة جدًّا ترتبط بمستقبل الوظائف: الذكاء الاصطناعيّ يُغيّر سوق العمل جذريًّا. فقد بدأ يحلّ محلّ بعض الموظفين الذين تعتمد وظيفتهم على التكرار أو التحليل السطحيّ. وهذا التغيير، رغم أنه طبيعيّ في سياق التطوّر التكنولوجيّ، يحمل في طيّاته تحديّاتٍ اجتماعيّة واقتصاديّة كبيرة. بعض القطاعات مهدّدة بالانكماش، وبعض المهارات ستصبح غير مطلوبة، ما قد يترك شرائحَ واسعة من الناس في مواجهةِ بطالةٍ مفاجئةٍ ما لم يتمّ وضع خطط إعادة تأهيلٍ شاملةٍ وتحديثٍ للمناهج التعليميّة. ليس الخطر هنا في الذكاء الاصطناعيّ نفسه، بل في غياب الرؤية المجتمعيّة والسياسات العامّة التي تُواكب هذا التحوّل وتدير آثاره.
ولا يمكن أن نغفل عن التحديّات المرتبطة بالخصوصيّة. فأنظمة الذكاء الاصطناعيّ تعتمد على تحليل كميّاتٍ هائلةٍ من البيانات الشخصيّة، سواء في الطبّ أو التسوّق أو التعليم أو التواصل. هذه البيانات غالبًا ما تتضمّن تفاصيلَ دقيقة عن حياتنا، وأذواقنا، وسلوكنا اليوميّ، وحتى حالتنا الصحيّة والعاطفيّة. ومع غياب الأطر القانونيّة الملزِمة والرقابة الحقيقيّة على كيفيّة جمع هذه البيانات وتخزينها واستخدامها، قد نجد أنفسنا مكشوفين أمام جهاتٍ تسعى لتحقيق أرباحٍ أو مكاسبَ سياسيّةٍ أو أمنيّة. في بعض الدول، تُستخدم تقنيّات الذكاء الاصطناعيّ للمراقبة الجماعيّة، ما يُثير أسئلة عميقة حول حدود الحريّة الفرديّة ومستقبل الديمقراطيّة.
على الرغم من هذه الأخطار، تبقى الحقيقة التي لا يمكن إنكارها أن الذكاء الاصطناعيّ يُقدّم أيضًا فرصًا هائلة لتحسين حياتنا. فالمشكلة لا تكمن في التكنولوجيا نفسها، بل في طريقة تصميمها، وفي مَن يملكها، وكيف تُستخدم، ومن يُشرف عليها. ولهذا، فإن الحديث عن تهديداتٍ أو أخطار الذكاء الاصطناعي يجب ألّا يكون حديثًا عن الخوف، بل عن المسؤوليّة. يجب أن نتحرّك من ثقافة الانبهار الأعمى بالتكنولوجيا إلى ثقافة المشاركة الواعية في تطويرها. يجب أن نُطالب بالشفافية، وأن نُدافعَ عن الخصوصيّة، وأن نُصرَّ على التمثيل العادل في فرق تطوير هذه الأنظمة.
في العالم العربيّ، ما زال النقاش حول أخطار الذكاء الاصطناعيّ في بداياته، وغالبًا ما يُختزل في الخوف من "خسارة الوظائف". لكن الحقيقة أوسع من ذلك بكثير. نحن بحاجةٍ إلى بناء بيئةٍ تعليميّةٍ ومهنيّةٍ تُدرّب الأجيال المقبلة على فهم الذكاء الاصطناعيّ، لا كمستخدمين فقط، بل كمطوّرين وناقدين ومشاركين. نحتاج إلى أن ندرك أنّ مستقبل هذه التقنيّة لن يُقرَّر في وادي السيليكون في كاليفورنيا فقط، بل في كلّ بيتٍ ومدرسةٍ ومؤسّسةٍ تقرّر كيف تُوظّفها، ولمصلحة مَن.
غير أنّ التأثير لا يتوقّف عند حدود الاقتصاد أو سوق العمل. فالذكاء الاصطناعيّ لا يُغيّر فقط طريقة حياتنا، بل يُعيد تشكيل مفهوم الحقيقة نفسها. يمكن للخوارزمية اليوم أن تكتب نصوصًا، وترسم لوحات، وتُنتج صورًا وفيديواتٍ يصعب تمييزها عن الحقيقة. وهنا يُطرح السؤال: إذا استطاعتِ الخوارزمية أنْ تصنع ما يشبه الحقيقة، فما هي الحقيقة أصلًا؟
في الماضي، كنا نثق بالصورة لأنها "لا تكذب". اليوم يمكن لصورةٍ مولَّدةٍ أن تبدو أكثر واقعيّة من الواقع نفسه. مقطع فيديو مزيّف قد يغيّر الرأيَ العام، ومقال مكتوب آليًّا قد يوجّه تفكير ملايين الناس. وهكذا يتجاوز الذكاء الاصطناعيّ كونه أداةً لتحليل الواقع، ليصبح أداةً لصناعة واقعٍ جديد. ومَن يملك القدرة على توجيه هذه الخوارزميات يمتلك سلطة غير مسبوقة على الوعي البشريّ بحدّ ذاته.
القوّة اليوم لم تعد تعني السيطرة على الموارد الطبيعيّة فقط، بل السيطرة على تدفق المعلومات وعلى الخوارزميات التي تُنظمها. لذلك، الذكاء الاصطناعيّ ليس مجرّد تقنية، بل نوع جديد من السلطة. من دون وعي جماعيّ يضبطه، قد يتحوّل إلى أداةٍ للاحتكار بدل المعرفة، وللتفرقة بدل التواصل.
ومع ذلك، يحمل الذكاء الاصطناعيّ أيضًا فرصة لإعادة تعريف العالم بطريقةٍ أكثر إنسانية. إذا استُخدم بوعي، يمكن أن يساهم في كشف الحقائق بدل إخفائها، وفي نشر المعرفة بدل احتكارها، وفي تعزيز العدالة بدل ترسيخ الانحياز. لكنه لن يفعل ذلك وحده. نحن من يوجّهه، ونحن من يضع له القوانين والأخلاقيّات.
في نهاية المطاف، الذكاء الاصطناعيّ هو القوّة الجديدة في عالمٍ يتغيّر بسرعة. يمكن أن يكون أداة لتحرير الإنسان أو وسيلة للسيطرة عليه. يمكن أن يفتح لنا آفاقًا جديدة للفهم، أو يقيّدنا داخل أنظمةٍ مغلقةٍ من الخوارزميات. الاختيار ليس في يده، بل في أيدينا نحن. فإذا تعاملنا معه بوعي ومسؤولية، فسوف يكون قوّة تبني مستقبلًا أكثر عدلًا وازدهارًا؛ أمّا إذا تركناه بلا ضوابط، فسيتحوّل إلى سلطة تُعيد تشكيل الحقيقة وفق مصالح القلّة. نحن أمام مفترق طرق: إمّا أن نستخدمه لصالحنا، أو نتركه يُقرّر مصيرنا.
إنّ الذكاء الاصطناعيّ يُشبه السكّين: أداة قويّة وحياديّة. يمكن استخدامه للجراحة الدقيقة التي تُنقذ حياة المرضى، ويمكن استخدامه للإيذاء والقتل. ما يُحدّد النتيجة هو يد مَن يمسك به، والنيّة التي تُحرّكه، والوعي الذي يُراقبه. ولهذا، فإن السؤال الحقيقيّ ليس "هل يُشكّل الذكاء الاصطناعيّ خطرًا؟"، بل "هل نحن مستعدّون لتحمّل مسؤوليّته؟".