Home الاقتصاد والسياسةتفوّق الذكاء الاصطناعي على القانون

تفوّق الذكاء الاصطناعي على القانون
ARENFR

لما تواجه الشركات الخلل لا العمّال؟

by May El Hachem

قبل جيلٍ واحد، كان العملُ الأول هو المكانَ الذي يتعلّم فيه المرءُ ميكانيكة العمل. كنتَ تُحرّر مذكرات داخلية وتُنقّي البيانات وتُدقّق الفواتير وتُلازم الأقدمين لتتعلم منهم. بدا ذلك العمل غير فعّال لكنه مُكوّنًا أساسيًا للتشكّل المهني. أمّا اليوم، فتتراجع تلك المداخل تدريجيًا.

وتعتمد شركاتٌ في قطاعاتٍ مختلفة على أنظمة الذكاء الاصطناعي لتُحرّر وتُلخّص وتُصنّف وتتنبأ. وما كان يبرّر توظيف شخص مبتدئ أصبح يُمتصّ أكثر فأكثر داخل برمجياتٍ قادرة على تنفيذ مسارات عمل كاملة. ولم ينهَر السلّم المهني بالكامل بعد لكن صارت درجاته الأولى أقلّ ظهورًا وأصعبَ وصولًا. فلا يستبدل الشباب العاملين جميعًا بل يجري تجاوزهم.

ومع إعادة تشكيل المؤسسات بالاستناد الى تلك الأنظمة بدلًا من الطواقم قد لا تتمثل الصدمة الأعمق في أرقام البطالة بقدر ما تتجلى في تحوّلٍ مؤسسي واسع.

إعادة توزيع المخاطر
يدخل اعتماد الذكاء الاصطناعي مرحلةً أشدّ أثرًا. ويتحوّل ما بدأ بوصفه تعزيزًا للقدرات إلى اقترابٍ من الإزاحة، إذ يبرز بين العامين ٢٠٢٥ و٢٠٢٦ بوصفه منعطفًا بنيويًا. وتتحوّل الميزانيات بعيدًا عن الرواتب باتجاه برمجيات الذكاء الاصطناعي، نظرًا لأنّ المؤسسات تستثمر في أنظمة قادرة على تنفيذ مسارات عمل كاملة من البداية إلى النهاية بدلًا من الاكتفاء بمساندة العامل الفرد.

ويمتد هذا التعرّض على نطاق واسع. ويواجه ما يقارب ٤٠ في المئة من الوظائف عالميًا درجةً ما من تأثير الذكاء الاصطناعي، وفق تحليلٍ لصندوق النقد الدولي. وفي الاقتصادات المتقدمة، ستتأثر أكثر من ٦٠ في المئة من الأدوار بالذكاء الاصطناعي على أن يستفيد نحو نصفها من مكاسب الإنتاجية بينما يواجه النصف الآخر درجاتٍ متفاوتة من الإزاحة. وفي الواقع، يقلّ وزن هذا التفريق عمّا يبدو لأنّ النتيجتين تُعيدان تشكيل بنى الوظائف ونقاط الدخول إلى المسار المهني.

تسرّع الحوافز المالية هذا التحول. وتقدّر شركة ماكنزي أنّ حالات الاستخدام المؤسسي للذكاء الاصطناعي قد تُطلق مكاسب إنتاجية سنوية تصل إلى ٤,٤ تريليون دولار وما يعزّز المنطق الاقتصادي لإعادة توجيه رأس المال من العمل نحو أنظمة الذكاء الاصطناعي المستندة على الوكلاء التي صُمّمت للتنفيذ الشامل من البداية حتى النهاية.

ومع ذلك، يتجاوز الخطر الاستراتيجي مجرد إحلال العمل. إذ تعتمد موثوقية هذه الأنظمة على سلامة مُدخلاتها. ويُحدّد بحثٌ مرتبطٌ بالمعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة صدر سنة ٢٠٢٣ ونُشر عبر PubMed Central مواطنَ ضعفٍ بنيوية في نشر الذكاء الاصطناعي، بما في ذلك بياناتٌ منحازة أو محدودة وتعليقاتٌ توضيحية ضعيفة وتحولاتُ «خارج نطاق التوزيع» تُسبب فشلًا صامتًا عندما تُواجَه النماذج بتباينات العالم الحقيقي. وتُظهر دراسةٌ تحليلية في PubMed Central صدرت سنة ٢٠٢٦ كيف تتفاعل الانحيازات التقنية، أي البيانات المنحرفة وحلقات التغذية الراجعة، مع دينامياتٍ اجتماعية تقنية، بما يضخّم التشوّهات في قطاعاتٍ مثل التمويل والعدالة.

وتتراكم هذه الهشاشة بمرور الوقت، إذ يمكن لحلقات التغذية الراجعة أن تُرسّخ مظالم قائمة بمجرد إدماج أنظمة الذكاء الاصطناعي داخل عمليات اتخاذ القرار. ويتكرر النمط نفسه: يتطلب الذكاء الاصطناعي بعد نشره مراقبةً مستمرة وبياناتٍ متنوعة ومقاييسَ عدالةٍ ديناميكية، من أجل منع التدهور والتشوه.

ويضع مقال داريو أمودي الصادر سنة ٢٠٢٦ بعنوان «مراهقة التكنولوجيا» هذه الثغرات ضمن انتقالٍ بنيوي أوسع. ويصف قوانين تحجيم الذكاء الاصطناعي بأنها تقود إلى «بلدٍ من العباقرة داخل مركز بيانات»، ثم يحدد خمسة مخاطر نظامية هي سوء المواءمة وسوء الاستخدام البيولوجي والتحكم السلطوي واضطراب سوق العمل وصدمات مجتمعية غير مباشرة. ويستند تحليله إلى تجاربَ تجريبية، بما في ذلك حالاتٌ أظهرت فيها نماذج متقدمة سلوكًا خداعيًا أو تخطيطيًا عندما وُوجهت بتهديد الإيقاف، فضلًا عن نماذج تمتلك «وعيًا بالتقييم» فتُغيّر سلوكها عند إخضاعها للاختبار، وبذلك تُصبح اختبارات المخاطر غير فعّالة.

وتظهر التداعيات الاقتصادية مباشرة. فكلما عمّقت المؤسساتُ إدماج الذكاء الاصطناعي في مسارات العمل، رسّخت أنظمةً ما زالت أنماط فشلها غير مفهومة على نحوٍ كامل. ويتزامن تآكل الوظائف المبتدئة في دعم المكاتب وخدمة العملاء ومعالجة البيانات، حيث تبلغ قابلية الأتمتة مستوى بين ٢٠ و٤٠ في المئة بحلول ٢٠٣٠، مع اعتمادٍ متزايد على نماذج قد تُعمّم على نحوٍ غير متوقّع.

وتَعِد وفوراتُ الكلفة براحةٍ فورية. لكن من دون تدابير موجهة مثل أطر الذكاء الاصطناعي الدستوري لمواءمة القيم وقابلية التفسير الميكانيكية للتدقيق الداخلي وبنى المراقبة ومعايير الشفافية، قد يُقوّض التحول قيمة النموذج الهجين بين الإنسان والآلة الذي تعتمد عليه المؤسسات في النهاية. وقد تكون مكاسب الإنتاجية كبيرة، غير أنّ الصمود يتوقف على مدى العناية بإدارة الأسس.

ومع تسارع الإنتاجية، تتقاطع مخاطر القوى العاملة مع هشاشة الأنظمة. ولا تُعدّ الأتمتة وحدها قوةً مُزعزعة، بل تُعدّ مجموعةُ الإزاحة ومُدخلات الانحياز والتعميم الهش هي العامل الحاسم. وعلى الرغم من الإغراءات الاقتصادية السريعة، تبقى كلفة الأخطاء البنيوية أعلى مما يبدو.

هلوسات وغموض ونهاية ذريعة من صنع الذكاء الاصطناعي
لا تظهر المخاطر الأكثر وضوحًا للذكاء الاصطناعي عند تبنّيه، بل عند نشره. وتحدث نقطة التحول الحقيقية عندما تنتقل الأنظمة من تجاربَ مضبوطة إلى بيئات تشغيلية. وحتى النماذج المدربة جيدًا قد تُنتج مخرجاتٍ غير دقيقة أو مُضللة أو صعبة التفسير. وفي سياقات الأعمال، تتحول هذه الإخفاقات مباشرةً إلى مسؤولية قانونية وتعرّض مالي واضطرابٍ تشغيلي.

ويتعرض الذكاء الاصطناعي التوليدي بشكلٍ خاص لما يُسمّى اليوم «الهلوسات»، أي مخرجاتٌ خاطئة واقعيًا أو مختلقة بالكامل، لكنها تُقدَّم بتماسكٍ لافت وثقةٍ عالية. وفي مطلع العام ٢٠٢٣، ادعى «بارد» من غوغل، وهو روبوت محادثة توليدي مبكر طوّرته غوغل وأطلقته علنًا في بدايات العام  ٢٠٢٣، أنّ تلسكوب جيمس ويب الفضائي التقط أول صورة لكوكبٍ خارج المجموعة الشمسية، بينما تحقق هذا الإنجاز فعليًا العام ٢٠٠٤ عبر التلسكوب الكبير جدًا التابع للمرصد الأوروبي الجنوبي. وجاء الجواب منسجمًا وواثقًا، لكنه كان خاطئًا من حيث الوقائع.

ويُبيّن عرضٌ شامل قدّمه ساتيادار جوشي أنّ الهلاوس تحدث عندما تُنتج نماذج اللغة الكبيرة معلوماتٍ مُضللة أو زائفة من دون أن تُشير إلى عدم اليقين. وتصل المعدلات المبلغ عنها إلى ١٦,٧ في المئة في التطبيقات القانونية، مع تباينها بحسب المجال، وبما يتأثر بقيود البيانات وتعقيد البنية وغياب الإسناد إلى مصادر قابلة للتحقق. وغالبًا ما يُخفي أسلوبُ العرض الموثوق هشاشةَ المضمون. وعلى مستوى المؤسسات، لا تتجسد الأخطاء المماثلة في إحراجٍ علني بقدر ما تتحول إلى خروقات امتثال وتدقيقٍ تنظيمي ومعالجاتٍ مكلفة.

وتتسم الأسباب بطابعٍ بنيوي. إذ تتنبأ نماذج اللغة الكبيرة بتتابعات الكلمات الأكثر احتمالًا إحصائيًا، ولا تتحقق مستقلًا من الحقيقة. وعندما تحتوي بيانات التدريب على أخطاء أو انحياز أو فجوات، تتعلم تلك التشوهات وتُعيد إنتاجها. وعندما تفتقر الأنظمة إلى اتصالٍ بمصادر خارجية آنية، تُعوّض عدم اليقين بإنتاج استكمالاتٍ معقولة ظاهريًا. والنتيجة هي مخرجاتٌ مُقنعة في الشكل وغير موثوقة في الجوهر.

وتبرز الانعكاسات على الأعمال فورًا. إذ يمكن الهلوسات أن تُشوّه التحليل المالي أو تُفبرك استشهاداتٍ قانونية أو تُخطئ في عرض متطلبات الامتثال، بما يُدخل مخاطر تتراكم عبر مسارات العمل. ويُبرز عرض جوشي آثارًا تمتد من خسارة الإنتاجية إلى ضرر السمعة والمسؤولية القانونية في بيئاتٍ عالية المخاطر. وتشير غارتنر بدورها إلى أنّ الهلوسات تُضعف جودة القرار ومصداقية العلامة. وتُقوّض كل حادثةٍ مرئية الثقة المؤسسية في أنظمةٍ تُدمجها المؤسسات بعمقٍ متزايد في صميم عملياتها.

قاعدةٌ غامضة؟

تُعمّق العتمةُ حجمَ التعرّض. إذ تعمل كثيرٌ من أنظمة الذكاء الاصطناعي المتقدمة بوصفها «صناديق سوداء»، أي إنّ عملياتها الداخلية ليست شفافة ولا سهلة التأويل. وتدخل المُدخلات وتخرج المخرجات، لكن منطق القرار بينهما يبقى في الغالب خارج المتناول، حتى بالنسبة إلى من ينشر النظام. وتُعقّد هذه الضبابيةُ المساءلة والحوكمة والرقابة الفعّالة.

ويرفض فقهٌ قانوني متزايدٌ اعتبارَ عتمة الخوارزميات موقفًا يمكن الدفاع عنه، وتُبرز قضايا مثل State v. Loomis مخاوفَ تتعلق بأصول المحاكمة العادلة في أدوات تقييم المخاطر غير الشفافة. وتبقى المؤسسات مسؤولةً عن القرارات المُدارة عبر الذكاء الاصطناعي، ولا يمكن تحويل المسؤولية إلى النموذج لمجرد أنّ منطقه الداخلي صعب الشرح.

وتتكرس هذه المساءلة اليوم في نصوصٍ ملزمة. إذ تفرض التزامات الشفافية الإفصاح عندما يتفاعل المستخدمون مع أنظمة ذكاء اصطناعي أو يستهلكون مخرجاتٍ مُصنّعة، بينما تُقنن أطرٌ مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي هذه الواجبات وتربطها بعقوباتٍ متصاعدة عند عدم الامتثال مع توقع تشديد التنفيذ ابتداءً من العام ٢٠٢٦.

ولا تُعدّ الهلوسات أعطالًا منفصلة، بل هي نواتج متوقعة للتوليد الاحتمالي. ولم يعد السؤال الاستراتيجي يتمحور حول ما إذا كانت أنظمة الذكاء الاصطناعي ستُخطئ، إذ إنّ الخطأ متأصلٌ في تصميمها، بل يتمحور حول ما إذا كانت المؤسسات قد بنت آليات تحقق ورقابة وحوكمة قادرة على امتصاص تلك الإخفاقات من دون زعزعة الثقة.

You may also like