نجيب الاعرج: استعمالات الذكاء الاصطناعي في مكافحة الجريمة بين الإمكانات والتحديات: مقارنة بين النموذج الصيني والنموذج الأوروبي
ذ.نجيب الاعرج أستاذ باحث بكلية الحقوق بفاس
شاع القول طويلا بأن التكنولوجيا محايدة ولا تأثير لها على القانون، وبأن العكس هو الصحيح. لكن التطورات المتسارعة في عالم اليوم خاصة مع ظهور الذكاء الاصطناعي وولوجه الى عالم العدالة الجنائية واستعماله في مجالات عديدة كالأمن الاستباقي أو المراقبة والبحث عن المجرمين وكذا استخراج الأدلة، والتوغل في اتخاد القرار القضائي..، تقتضي الاعتراف بالأثر المتبادل -ان لم نقل العكسي- بين الحقلين وتدفعنا جميعا كباحثين في الحقل القانوني الى التساؤل حول طبيعة هذا الاستعمال وحدوده ومن تم كان الهدف من هذه الورقة هو محاولة توضيح أوجه هذا التوظيف وتأثيراته، وإبراز بعضا من مزاياه بالتطرق الى مختلف مظاهر استعمالات الذكاء الاصطناعي في محاربة الجريمة وسبل الحماية القانونية من تهديداته.
وإذا كان استعمال وتوظيف الذكاء الاصطناعي في مجال العدالة الجنائية عموما ومحاربة الجريمة تحديدا يمكن أن يحمل العديد من المزايا فإن لهذا الاستعمال أيضا جانب مظلم، جانب تهديد الحقوق والحريات المكفولة للأفراد.
إن طبيعة موضوع استعمال الذكاء الاصطناعي كتقنية تكنولوجية جديدة في الحقل الجنائي تطرح العديد من الإشكالات، تتمحور حول تعريفه أولا ثم محاولة تحديد أوجه استعمال الذكاء الاصطناعي في الحقل الأمني والجنائي وتداعيات هذا الاستعمال على حقوق وحريات الأفراد من قبيل:
– ماهي أوجه استعمال الذكاء الاصطناعي في الميدان الجنائي؟ كيف يساهم الذكاء الاصطناعي في محاربة الجريمة؟ هل يمكن للذكاء الاصطناعي التنبؤ بالجرائم قبل حدوثها؟
هل أصبحنا الان بصدد إلغاء بعض المفاهيم التي استقرت زمنا طويلا وأصبحت معه متجاوزة كالحق في الحياة الخاصة والتفتيش؟ وعن مخاطر هذا الاستعمال في الميدان الجنائي؟ وهل هناك تشريعات منظمة لاستعمالات الذكاء الاصطناعي في العدالة الجنائية؟
مفهوم الذكاء الاصطناعي
من بين تعاريف الذكاء الاصطناعي نذكر تعريفا للفيلسوف جون هوغلاند John Haugeland ” هو المجهود المثير لجعل الحواسيب تفكر، آلات لديها عقل، بالمعنى الحقيقي للكلمة”. من خلال هذا التعريف يتبين أن أهم خصال الذكاء الاصطناعي هي جعل الآلة تفكر كالإنسان، وقادرة على التعلم، والتحليل والاستنتاج.
تعريف اخر قدمه فريق خبراء المستوى الرفيع HLEG في تقرير مركز الأبحاث العلمية التابع للجنة الأوروبية العلمية EC JRC ” هو مصطلح عام يشير إلى أي آلة أو خوارزمية[1] تكون قادرة على ملاحظة محيطها، وتتعلم منه، وبناء على المعلومات والخبرات التي تكتسبها، تقوم بأفعال ذكية، أو تقوم بإصدار قرارات”[2]
من خلال هذين التعريفين يمكن القول بأن الذكاء الاصطناعي يعتبر بمثابة عقل نوفره للآلة لتصبح قادرة على القيام بمهام يقوم بها العقل البشري، فهو ليس آلة كما يعتقد البعض، بل هونوع من الوعي يعطى للآلة من أجل تأدية بعض المهام التي يقوم بها عقل الإنسان كالتعرف على الأوجه ومقارنة الخطوط وتحليل السلوك البشري.. فالآلة بتزويدها بنظام للذكاء الاصطناعي تصبح قادرة على استقبال البيانات وتحليلها واستخلاص النتائج أي قادرة على أداء المهام البشرية عن طريق محاكاة السمات والذكاء والاستدلال البشري، ولكن دون تدخل بشري مباشر وقد تم تحسين الذكاء الاصطناعي إلى الحد الذي يمكن أن يتفوق فيه على القدرات البشرية
على الرغم من أن فكرة الذكاء الاصطناعي قد بدأت كخيال، من خلال بعض الاعمال السينيمائية مثل فيلم ماينوريتي ريبورت Minority Report الصادر سنة 2002 والذي يصور مستقبلًا مثيرًا للقلق للتقنيات المتقدمة في تطبيق القانون.. إلا أنه بدأ الآن يتحول الى حقيقة واقعة في الحياة اليومية، مغيّرا أنماط الحياة البشرية في مختلف جوانب الحياة كالصحة، والتعليم، والحروب وغيرها من الجوانب التي اخترقها الذكاء الاصطناعي.
الذكاء الاصطناعي: آلية استباقية في الحقل الجنائي
تحولت العدالة الجنائية مؤخرًا نحو الذكاء الاصطناعي الذي اعتبرته -بالنظر للإمكانات الهائلة التي يحملها- بمثابة طوق نجاة لتجاوز أزمتها ولتحسين نتائجها في مجالات عديدة، خفض الجريمة، تقليل التأخير المتعلق بالعدالة..، حيث أظهرت الأبحاث أن الذكاء الاصطناعي قد يمثل عنصرًا محوريًا في تطوير نظام العدالة الجنائية، من خلال المساهمة في التخفيف من أزماته، هذا التحول جعل بعض الدول تعتمد مقاربة حديثة في كبح الجريمة تقوم على الأمن الإستباقي والعدالة التوقعية، وترتكز على المراقبة وتوقع السلوك المستقبلي، محركها الأساسي هو الذكاء الاصطناعي، ومنه يبرز التساؤل التالي: كيف يساهم الذكاء الاصطناعي في محاربة الجريمة؟
جوابا على هذا التساؤل سأقوم بالتركيز على أهم جوانب استعمال هذه التقنية الجديدة في محاربة الجريمة ويتعلق الامر بالمراقبة (1) والتوقع (2) وابراز أهم استعمالات الذكاء الاصطناعي فيهما.
أولا: المراقبة[3] في النظام الصيني: بين ضبط الجريمة والحد من الحريات
لقد ساهم الارتفاع الكبير الذي عرفته معدلات الجريمة مع بداية القرن الواحد والعشرين بالإضافة الى أحداث 11 شتنبر سنة 2001 في الولايات المتحدة الأمريكية في تحول الدول إلى مقاربة أمنية تقوم بالأساس على المراقبة بهدف إلمام السلطات الأمنية بكافة الجوانب والتفاصيل، من خلال تسخير التطور التكنولوجي الذي أتاح قدرات مراقبة شاملة.
لعل أحد أبرز أ محاولات التركيز على المراقبة كأسلوب للتحكم والضبط كان في نظرية الباناوبتيكون Panopticon لصاحبها جيريمي بنتهام، وكانت عبارة عن فكرة هندسية لسجن هدفه مراقبة السجناء بأقل عدد من الحراس، حيث كان الهدف من هذا الاسلوب الهندسي هو وضع السجناء في موقف يجهلون من يراقبهم رغم معرفتهم بوجود من يراقبهم، هذا الشكل الهندسي كان عبارة عن بناية طويلة دائرية الشكل كلها زنزانات يتوسطها برج طويل به موظف يستطيع مراقبة جميع الزنزانات بسهولة[4]، والحقيقة أن الفكرة هي بالأساس نفسية أكثر منها هندسية، فالمراقب لا يستطيع مراقبة كافة الزنزانات في آن واحد، لكن السجناء يعتقدون أنه قادر على مراقبتهم من البرج بسبب الشكل الهندسي للسجن، ولإحساسهم انهم مراقبون كل الوقت فهذا يجعل سلوكهم متحكم فيه دون اللجوء الى القوة أو استعمال موارد أكثر، لان فكرة المراقبة تكبح سلوكهم المنحرف، وهذا هو الغرض من المراقبة.
لم تلق فكرة بينتهام للسجن البانوبتيكي رواجا إلا بعد اعتماد ميشيل فوكو لها في كتاب المراقبة والعقاب حين أخرج عبارة البانوبتيسيزم Panopticism، واعتبرها أسلوب من ممارسة السلطة على الناس والتحكم بعلاقاتهم، وفك تركيباتهم الخطيرة[5] باستعمال المراقبة.
استحضار نظرية الباناوبتيكون له دور مهم في الحديث عن المراقبة في عهد الذكاء الاصطناعي، فما كان فكرة في فكر صاحبه وحلما بالنسبة للدول (أي المراقبة الشاملة للأفراد) أصبح اليوم حقيقة ممكنة التطبيق، الآن يمكن جعل دولة بأكملها سجن بانوبتيكي مراقب بالذكاء الاصطناعي، فالأفراد هم السجناء، والموظف المراقب في البرج العالي هو الذكاء الاصطناعي عن طريق الكاميرات والأجهزة الذكية والأقمار الاصطناعية التي تجمع المعلومات أو البيانات، ويكون دور الذكاء الاصطناعي هو تحليلها واستخراج أنماط السلوك المنحرف منها بسرعة كبيرة تفوق السرعة التي قد نصل اليها لو استعملنا البشر في المراقبة.
نحن الآن في عصر الذكاء الاصطناعي حيث نجد أنفسنا محاصرين كاميرات ذكية في الشوارع، هواتفنا منازلنا كلها أجهزة ذكية، تجمع بياناتنا اليومية وتوفرها للذكاء الاصطناعي من أجل تحليلها، ونحن نعرف أننا نفعل ذلك، وهذه هي فكرة البانوبتيكون، نحن مراقبون ونعلم اننا مراقبون، دون معرفة كيف تتم رقابتنا.
فكرة المراقبة هاته قد تلقى بعض التأييد لاعتبارها أحد الأساليب التي من الممكن أن تنقص من معدلات الجريمة، ويمكن إسقاطها على أحد أبرز نظريات علم الإجرام والتي فسرت السلوك الإجرامي اقتصاديا هي نظرية المجرم العقلاني لغاري بيكر والتي اعتبرت المجرم كائن عقلاني يرتكب الجريمة متى كانت أرباحها أو منفعتها أكبر من التكاليف والتكاليف بالنسبة للمجرم هي احتمالية القبض عليه ومدة العقوبة في حالة القبض عليه، أما الأرباح فهي ما سيجنيه المجرم من الجريمة.
الآن وفي عصر الذكاء الاصطناعي حيث إمكانيات المراقبة عالية وأكثر تطورا، أصبح بالإمكان تطبيق نظرية بيكر للتقليل من الجريمة، وذلك بتسخير تكنولوجيا المراقبة في تقليل ارباح المجرمين وزيادة مخاطر ارتكاب الجريمة، الآن لدينا مدن مراقبة بالكامل بكاميرات ، مرتبطة بقواعد بيانات لجميع ساكنة هذه المدينة، تستطيع التعرف على الأوجه من مختلف الزوايا وتقرأ الشفاه وتحلل الحركات، اضافة الى سياسات تعميرية تخدم السياسة الجنائية، حيث توفر شوارع أكبر، إنارة أفضل ومباني أعلى تمنح الكاميرات رؤية بانورامية وتغطي أكبر مساحة ممكنة وأكبر عدد من الأشخاص، هذا نوع من الحصار الرقابي الذي تحاول الدول تطبيقه من أجل تقليل منافع الجريمة، وذلك من اجل تحسيس مرتكبي الجريمة أن جميع تصرفاتهم مراقبة وأن أي فعل ارتكبوه سيتم كشفه، هو حصار مستحب إذا استعمل لأغراض إيجابية كمحاربة الجريمة، ومذموم إذا تم استعماله لمراقبة الأفراد لأغراض أخرى لا أخلاقية.
اعتماد الذكاء الاصطناعي في مراقبة الأفراد لم يعد مجرد خيال أو موضوع مستقبلي، بل هو حقيقة الآن، وبعض الدول قد ذهبت بعيدا في مجال المراقبة، لدرجة أنها تراقب 98% من شعبها، ولعل أهم تجربة موجودة حاليا هي التجربة الصينية التي أبدعت في استعمال الذكاء الاصطناعي، وصرفت أموالا طائلة من أجل تطوير وسائل المراقبة وبرامج الذكاء الإصطناعي.
تعتبر الصين من الدول التي تسعى إلى الوصول إلى ما يسمى بالمجتمع المنضبط Disciplinary Society وهو المفهوم الذي أتى به ميشيل فوكو[6] وللوصول لهذا النوع من المجتمع لابد من وجود رقابة شاملة على الأفراد، [7]و من أجل تحقيق هذا الهدف قامت الصين بالاستثمار في تقنيات المراقبة واهم تقنية تم الاستثمار فيها هي تقنية التعرف على الأوجه، حيث ارتفع عدد كاميرات التعرف على الأوجه من 176 مليون كاميرا في 2017 إلى 626 مليون كاميرا سنة 2020[8]و هو تطور كبير يبرز تركيز الصين على المراقبة كأسلوب للضبط الاجتماعي، إننا هنا نتحدث عن كاميرا لكل مواطنين صينيين تقريبا، الصين الآن لها القدرة على مراقبة 96% من شعبها رغم ان عدد ساكنتها هو 1,4 مليار نسمة، ومن أصل 10 مدن الأكثر مراقبة في العالم توجد 8 مدن صينية، لندن واتلانتا هما المدينتان الغير صينيتان الوحيدتان.
و من اجل تطبيق مقاربتها أطلقت الصين العديد من البرامج التي تهدف للمراقبة الشاملة والضبط الاجتماعي، من بين هذه البرامج برنامج Skynet وهو برنامج يساعد الجهات الأمنية في اكتشاف الهويات بمساعدة كاميرات التعرف على الأوجه المرتبطة بقاعدة بيانات ضخمة للأفراد، هذا البرنامج له القدرة على مسح كافة الشعب الصيني في ثانية واحدة وبدقة 99,8% وبمئات الملايين من الكاميرات الذكية القادرة على تحديد مواصفات الشخص وهويته، كعمره وعرقه ولون ملابسه.
إن الغرض من كل هذا الاستثمار في وسائل المراقبة الذي تشهده الصين هو تحقيق أحد أكبر أهدافها وأحلامها في الضبط المجتمعي من خلال برنامج الائتمان الاجتماعي[9] Social Credit وهو برنامج عملاق يقوم على تقييم أداء المواطنين الصينيين وذلك بتنقيط سلوكيات الأفراد في حياتهم اليومية [10] عن طريق المراقبة الشاملة للشعب الصيني في كل جزئيات حياتهم وكل مناحي الحياة سواء الواقعية أو الافتراضية.
كانت تقوم فكرة هذا البرنامج، في البداية، على تنقيط درجات الثقة وحسن النية لدى الفاعلين في الميدان الاقتصادي والمعاملات المالية؛ لكن بعد مرور السنوات، توسعت الفكرة بشكل دراماتيكي، ليتحول الى برنامج اجتماعي ذو خلفية جنائية يهتم بجميع تفاصيل المجتمع ويراقب ويتحكم في سلوكيات الأفراد، فتحول من برنامج لمحاربة الرشوة والفساد المالي، الى برنامج يهتم بأتفه السلوكات البشرية، ويقوم بتقييدها والتنقيط عليها. وهذا البرنامج يحركه الذكاء الاصطناعي من خلال البيانات التي توفرها جميع المؤسسات الحكومية والغير حكومية من أجل تطويره.
فكل من يخالف قانونا أو يرتكب سلوك منحرف مثل رمي الأزبال في الشارع، أو التبول العلني…إلخ. يتم خصم نقاط من رصيده الاجتماعي. فهو برنامج تنقيطي، وبتكرار خصم النقاط وعند الوصول الى مستويات دنيا، يتم وضع المواطنين في لوائح حمراء Red lists ولوائح سوداء Black lists وحرمانهم من بعض حقوقهم مثل التنقل والملكية، والغرض الأساسي هو الحفاظ على الثقة والأمن في المعاملات الاجتماعية الصينية.
يعني التواجد في اللوائح السوداء وجود عقوبات على التنقيط المنخفض. وتختلف هذه العقوبات من حيث النوع والقوة، فتبدأ بغرامات في الأول، لكنها تتطور كلما زاد انخفاض التنقيط، لتصل الى تقييد بعض حقوق الأفراد مثل منعهم من السفر خارج الصين وحتى داخلها، منعهم من استعمال وسائل نقل محددة كالطائرة أو القطار، وهذا التقييد يختلف حسب السلوك المعاقب الذي تم ارتكابه.
وللخروج من اللائحة السوداء ما على هؤلاء الأفراد الا تنفيذ أوامر المحكمة وتعليماتها ويتم إزالتهم من اللائحة بعد عامين.
تقوم الصين حاليا من أجل إنزال برنامج الإئتمان الإجتماعي بوضع مدن تجريبية مدينة يصل عددها إلى 40 مدينة. ومن أهم المدن التجريبية المتواجدة حاليا هناك مدينتي سوينين Suining في منطقة يانغسو Jiangsu، ومدينة رونغشنغ Rongcheng في منطقة شاندونغ Shandong. في كلتا المدينتين تم منح 1000 نقطة لكل مواطن ويمكن أن يخسروا نقاط عن كل فعل تعتبره السلطات أنه منحرف او مناف للأخلاق، كعدم احترام اشارات المرور، السياقة في حالة سكر، أو أن يرزق الأشخاص بمواليد دون ترخيص من سلطات المدينتين. في المقابل يمكن للأشخاص أيضا ربح نقاط من السلوكات الحسنة التي يقومون بها مثل الاعتناء بالمسنين. يتم ترجمة هذه النقط ترجمتها من عال إلى منخفض، ويستفيد أصحاب التقييم العالي من بعض الامتيازات مثل الحصول على اعانات الدولة بالأولوية، وتكون لهم مكانة أفضل عندما يتعلق الأمر بالحصول على القروض، بينما اصحاب التقييم المنخفض يحرمون من هذه الامتيازات وتقيد بعض حقوقهم في السكن والحماية الاجتماعية والحصول على التراخيص.
دون الغوص في تفاصيل هذا النظام لأنها كثيرة، فردود الفعل حوله قد تباينت، لكن اغلبها اعتبر أن هذا النظام هو بداية عصر الاستبداد الرقمي، ويمثل وسيلة مراقبة استبدادية من طرف الحكومات وهي رؤية ديستوبية ذهبت الى اننا الآن في بداية ” الكابوس الأورويلي” الذي أتى به جورج أورويل في رواية 1984، وقد تم اعتبار أن برنامج كهذا لا يصلح الا لنظام سياسي توتاليتاري ولا يناسب القيم الديمقراطية الليبرالية.
لكن السؤال الذي يطرح نفسه هنا: هل يمكن للذكاء الاصطناعي التنبؤ بالجرائم قبل حدوثها؟
ثانيا: ما مدى توقع الجرائم قبل حدوثها؟
لم تعد المقاربة الأمنية الجديدة تكتفي بالمراقبة فقط لضبط الجريمة والكشف عنها، بل أصبح لها هدف آخر هو توقع الجريمة قبل وقوعها باستعمال الذكاء الاصطناعي وخوارزميات تحليل السلوك البشري. لم يعد فيلم ماينوريتي ريبورت Minority Report [11] خيالا علميا بعد الآن، فالبشر طالما كان له نوع من الفانتازيا حول مدينة أفلاطونية خالية من الجريمة، حلم صعب المنال نظرا لطبيعة السلوك البشري المعقد، والذي يمتاز بالتقلب وصعوبة التوقع، لكن مع ما يتيحه استعمال هذا النظام الذي يتطور أكثر فأكثر يطرح السؤال هل فعلا يمكن فعلا التنبؤ بالجريمة قبل وقوعها؟ هل نستطيع توقع سلوك الفرد في المستقبل؟
سيعود بنا الجواب على السؤال الى مراحل تاريخية سابقة في علم الإجرام، فرغم أن توقع الجريمة والسلوك البشري يبدو موضوع مستجد، الا انه يجد جذوره في النظريات المفسرة للسلوك الإجرامي لمبروزو.. يدفعنا للحديث عن مفهوم الأمن الاستباقي وهو مفهوم جديد برز مع استعمال برامج الذكاء الاصطناعي، والغرض الأساسي من الأمن الاستباقي هو توقع أماكن من المحتمل وقوع الجريمة فيها أو أشخاص من المحتمل أن يرتكبوا جريمة ما، فالهدف هنا هو الوقاية من الجريمة قبل حدوثها [12]، وكذلك حسن استعمال الموارد المخصصة لمحاربة الجريمة، فعلى اساس توقع الأشخاص والأماكن مرتفعة الخطورة يمكن توجيه الموارد أحسن توجيه وذلك بإرسال وحدات الشرطة من أجل التدخل مثلا لمكان محدد من المحتمل أن تقع فيه جريمة أو أشخاص محددين تم توقع ارتكابهم للجريمة،
و هذا يجعل عمل الجهات الأمنية أكثر نجاعة وفعالية[13]. هذا لن يحدث الا بتوفر قواعد بيانات ضخمة وذكاء اصطناعي يحلل ويستخرج أنماط السلوك البشري وأنماط ارتكاب الجريمة، وقت ومكان ارتكابها. وهذه البيانات لا يمكن جمعها الا بوجود وسائل مراقبة متطورة تجمع اكبر عدد من البيانات، أسلوب كهذا في تفسير السلوك الإجرامي ساهم في ظهور وولادة نوع جديد من علم الإجرام، وهو علم الإجرام الحسابي[14] Computational Criminology. توقع الجريمة يتم تطبيقه عبر عدة أوجه، أهمها تلك التي تركز على توقع الجريمة من حيث الأماكن والأشخاص.
أ- توقع الجريمة عبر التركيز على الأماكن
إن مسألة توقع أماكن حدوث الجريمة ليس بالأمر الذي ظهر حديثا، بل تجد جدورها تاريخيا في عدة نظريات لعلم الإجرام لعل أهمها المدرسة الخرائطية التي أعطت تفسيرا لسبب ارتفاع نسبة الجريمة في بعض الأماكن..
ما فعله جيري وكيتليه يفعله الآن الذكاء الاصطناعي، لكن بسرعة أكبر ويغطي مساحة أوسع وبدقة أحسن، فبرامج الذكاء الاصطناعي التي تتوقع الأماكن تعمل بطريقتين، أولى هي تحديد المناطق الساخنة أو مناطق الذروة Hot Spots وتقوم هذه البرامج بتحليل البيانات التي تستقبلها وتحاول إيجاد العلاقة بين العوامل الجغرافية والاجتماعية من أجل استخراج أسباب الجريمة وبناء على ذلك تتوقع وتحدد الأماكن التي من الممكن أن تكون مسرح جريمة محتمل[15] كالأماكن ذات الإضاءة الضعيفة ومحطات القطار والنوادي الليلية وغيرها من الأماكن. فمن أشهر البرامج التي تعمل على تحديد الأماكن الساخنة بالذكاء الاصطناعي نجد برنامج Predpol وهي اختصار لعبارة Predictive Policing، هذا البرنامج يركز بالأساس على جرائم السرقة بكل أنواعها، ويعمل بخوارزمية مستلهمة من علم الزلازل Seismology[16], وذلك بالاعتماد ليس فقط على بيانات الشرطة، بل جميع التبليغات حول جرائم السرقة ويقوم بتحديد أماكن الذروة بالنسبة لجريمة السرقة وهذا بشكل يومي.
برنامج Predpol نال شهرة واسعة في لوس أنجلس وذلك لأن شرطة هذه الأخيرة LAPD هي من طورت البرنامج بشراكة مع جامعة كاليفورنيا، ليصبح برنامج منتشر في الكثير من المدن الأمريكية مثل أتلانتا، ريشموند وموديستو[17]. وبعد ذلك انتقل الى اوروبا وبالضبط الى المملكة المتحدة حيث اعتمدته مدينة لندن.
برنامج آخر لا يقل شهرة عن Predpol هو Hunchlab تكلفت ببرمجته شركة Azavea للبرمجيات من تطوير جامعتي Temple بفيلاديلفيا وRutgers بنيوجيرسي، يهدف الى تعزيز السلامة العامة للمواطنين وذلك بتوقع الأماكن المحتملة للجريمة[18]، بعد أن يقوم بتحليل البيانات واستخراج النتائج التي توصل لها، يقوم بإرسال نتائجه الى المكاتب الخاصة بالشرطة وعن طريق ذلك يتم توجيه تحركات دوريات رجال الشرطة من أجل تغطية المواقع التي حدد أنها قد تشهد نشاطا إجراميا[19].
إن الدور المهم التي تلعبه برامج توقع الأماكن يتجلى أساسا في تحسين نجاعة عمل الشرطة، وجعله أكثر فعالية، فعوض الانتشار العشوائي لدوريات الشرطة، هذه البرامج تحدد لهم مكان الانتشار، والمناطق التي قد تشهد سلوكات إجرامية، فيكون تحرك الشرطة مركزا على تلك الأماكن، وبمجرد حضور تعزيزات رجال الأمن للأماكن المحددة فإن الفرص بالنسبة للمجرمين تقل، هكذا فنسبة الجريمة التي كانت ستمارس في هذا المكان ستنخفض، واذا تم التعامل مع جميع ارجاء المدينة فنسبة الجريمة ستنخفض بكل تأكيد.
ب- توقع الجريمة عن طريق الأشخاص Person based predictive policing
هناك طريقتين رئيسيتين يتم اعتمادهما في توقع السلوك الاجرامي عند الأشخاص هما تحديد الخطورة Risk Profiling وتحليل العلاقات الاجتماعية Social network.
1) – تحديد عوامل الخطورة:
عوامل الخطورة هذه تنقسم لنوعين جامدة Static Factors ودينامية Dynamic Factors, وتتميز العوامل الجامدة بأنها لا تتغير ولها علاقة بتاريخ الشخص، من قبيل التاريخ الإجرامي، نوعية الجرائم التي ارتكبها، وتاريخ العنف الأسري..إلخ. أما الديناميكية فتتغير وتعطي إمكانية التدخل لإزالتها أو إصلاحها وبذلك تفادي أن يصبح الشخص خطرا على المجتمع في المستقبل، مثل الاندفاع، استعمال المخدرات، البطالة..إلخ.
2)- العلاقات الاجتماعية:
تعتمد هذه الطريقة على استخراج خطورة الشخص انطلاقا من علاقاته الاجتماعية، مثل الأصدقاء، الأقارب، الجيران والزملاء في إطار حياته الواقعية والافتراضية، فالحياة الافتراضية على مواقع التواصل الاجتماعي مهمة لتوقع الافراد لكثرة البيانات التي ينشرها الناس عن أنفسهم من خلال المنشورات المكتوبة والمصورة وايضا المحادثات والمواقع التي يزورونها، وهذه البيانات يمكن استخراج نتائج مهمة عن الشخص منها بعد تحليلها [20]. هذه الطريقة تعتمد على معرفة عدد السوابق القضائية في محيط الشخص لأنها تعطي مؤشرا على الاتجاهات التي قد يسلكها في المستقبل. وقد أكدت دراسة أجريت على الجريمة وعلاقتها بمحيط المجرم أو الضحية أن الفرد الذي يكون في محيطه أشخاص كانوا ضحية جريمة مرتبطة بأسلحة نارية أو اشخاص ارتكبوا جريمة بأسلحة نارية تكون نسبة ارتكابه لأفعال مشابهة كبيرة[21]..
من البرامج المعروفة حاليا والتي تعمل على توقع السلوك المستقبلي للأفراد هناك برنامج[22] ستريتيجك سابجكت ليستSSL (Strategic Subject List) تستعمله مدينة شيكاغو والغرض منه توقع الأشخاص الذين من المحتمل أن يكونوا مرتكبي أو ضحايا جرائم الأسلحة النارية.
ثالثا: الاستعمالات الجنائية للذكاء الاصطناعي والحماية القانونية للأفراد: النموذج الأوروبي
على الرغم من الأهمية التي يتيحها اعتماد الذكاء الاصطناعي في محاربة الجريمة وفي مجال العدالة الجنائية عموما، إلا أنه يطرح في المقابل مجموعة واسعة من التحديات التي يجب التصدي لها:
كتهديده للعديد من الحقوق والحريات، وبشكل مباشر الحق في الحياة الخاصة والحق في المحاكمة العادلة، وهذا التهديد ناتج عن:
أولا: كون التقنية مازالت في مرحلة التطوير، ونتائجها لا تكون دقيقة دائما
وثانيا: بسبب الاستعمالات اللاأخلاقية وأيضا القرارات المتحيزة[23] التي قد تتخذها الخوارزميات المستندة إلى الذكاء الاصطناعي، وكذلك الشفافية والمساءلة.
تدفعنا هذه الأسباب كباحثين في الحقل القانوني للسؤال التالي:
تعتبر البيانات الشخصية للأفراد هي الوقود الذي يتحرك به الذكاء الاصطناعي وبدونها هذا الأخير لن يكون فعالا. وبالنظر لأهمية البيانات والتهافت الكبير الذي يعرفه العالم حاليا عليها أصدرت دول الاتحاد الاوروبي احد أكثر القوانين صرامة لحماية البيانات في العالم [24] هو النظام الأوروبي لحماية البيانات GDPR الذي صدر سنة 2016 ودخل حيز التنفيذ سنة 2018، وجاء ليحمي أحد أهم الحقوق الأساسية التي نصت عليها المادة 8 من الميثاق الاساسي للحقوق والحريات الأساسية للاتحاد الأوروبي وهي حماية البيانات الخاصة للأشخاص الطبيعيين. يعتبر القانون رقم 2016/679 نصا توجيهيا جاء لتعويض قانون حماية المعطيات السابق 95/46 للاتحاد الأوروبي، نظرا للتطور التكنولوجي الكبير الذي عرفه العالم منذ صدور القانون القديم ، فبدخول الذكاء الاصطناعي ونظم المعالجة الآلية أصبح من اللازم وجود قانون يتلاءم مع هذه التطورات. أضيف اليه ما يمكن ان نسميه–القانون 2016/680 أو LED الذي أصدره البرلمان والمجلس الأوروبي يوم 27/04/2016 حول حماية الأشخاص الطبيعيين في معالجة بياناتهم من طرف الجهات المكلفة بالوقاية من الجريمة والتحري فيه ومكافحة الجريمة ومتابعة مرتكبيها وتنفيذ الأحكام القضائية. ويمكن القول أن قانون LED قانون 2016/680 هو نفسه قانون GDPR لكنه موجه لأجهزة العدالة الجنائية مع تغييرات تتناسب مع طبيعة عمل هذه الأجهزة، يعتبر LED نص توجيهي مشتق من قانون GDPR الأوروبي والذي تم توجيهه خصيصا لأجهزة العدالة الجنائية، فهو لا يطبق الا إن قامت أجهزة تابعة للدولة ومختصة في محاربة الجريمة والوقاية منها بالتعامل مع المعطيات الشخصية للأفراد وهو ما تم النص عليه في المادة 1 من هذا النص، هو باختصار نص خاص مشتق من النص العام GDPR دخل حيز التنفيذ سنة 2018.
التساؤل المطروح هو: ما الفرق بين GDPR وLED؟ والجواب واضح هو نوعية المؤسسات التي تتعامل مع البيانات. فكلما كانت المؤسسة خاصة او تابعة للدولة لكنها خارج اطار مجال الجريمة فالقانون المستعمل هو GDPR، وكلما تعلق الامر بمؤسسات غرضها محاربة الجريمة والوقاية منها فالقانون الذي سيطبق هو LED. لكن الإشكال يطرح عندما يتعلق بما يسمى المؤسسات الهجينة Hybrid entities والتي تكون لها اختصاصات في العدالة الجنائية واختصاصات مدنية مثل مؤسسة Financial Intelligence Units (FUIs) والتي لا يمكن اعتبارها جهاز للعدالة الجنائية بالمعنى الذي جاء في نص LED والتي سماها بـ Competent Authorities، لكن بعض الدول في أوروبا حسمت في هذا الأمر مثل إسبانيا وبلجيكا وجعلوا هذه المؤسسة خاضعة لقانون LED متى ما كانت مهامها في التعامل مع البيانات تدخل في اطار محاربة الجريمة الاقتصادية، أما اذا كانت اذا كانت خارج اطار محاربة الجريمة فهي تخضع لقانون GDPR وفي هذه الحالة لا تعتبر كجهاز للعدالة الجنائية. التساؤل الآخر هو عن مدى إلزامية هذا النص، وبالتأمل في بعض الكتابات وحتى ما ذكر في النص فقوة إلزاميته متساوية مع GDPR، بعض الكتابات لم تصفه بالنص التوجيهي المشتق من GDPR بل وصفته بأنه قانون موازي لـ GDPR عندما يتعلق بأجهزة العدالة الجنائية، وهذا يتضح في مسودة هذا النص خاصة الفقرات 5،6 و11 التي يتبين منها أن هذا النص له قدر من الالزامية توازي تلك التي عند GDPR عندما يتعلق الأمر بأجهزة العدالة الجنائية.
أ- أهم أهداف هذا النص
الغرض من تشريع نص توجيهي خاص فقط بأجهزة العدالة الجنائية راجع بالأساس للخصوصية التي تتمتع بها وحساسية مهامها، فعندما يتعلق الأمر بمحاربة الجريمة والوقاية منها هنا نكون أمام تعامل واسع مع معطيات الأفراد الشخصية حيث ستشمل المشتبه فيهم، وكذلك غير المشتبه فيهم في إطار الوقاية من الجريمة عن طريق المراقبة. لذلك فالقانون جاء بأهداف نص عليها في المادة 1 من هذا النص هي:
- ضرورة حماية الحقوق والحريات الأساسية للأشخاص الطبيعية عند التعامل مع معطياتهم الشخصية وبالأخص حماية معطياتهم ذات الطابع الشخصي.
- تبادل المعطيات الشخصية للأفراد بين دول الاتحاد الأوروبي من طرف أجهزة العدالة الجنائية يجب أن يكون في اطار ما هو مسموح به في قانون هذه الدول.
– القانون يهدف لحماية المعطيات الشخصية التي يتم معالجتها بشكل أتوماتيكي كلي او جزئي من طرف أدوات مبرمجة أو تعمل بالذكاء الاصطناعي.
ب- أهم أوجه الحماية التي وفرها هذا النص عندما يتعلق الأمر بالذكاء الإصطناعي.
باختصار هذا النص جاء بعدة أوجه لحماية البيانات الشخصية للأفراد من بينها أنه حدد بعض المبادئ المهمة التي تؤطر التعامل مع المعطيات الشخصية للأفراد أهمها:
- العدل والشفافية: Fairness and transparency تم النص عليه في المادة 4 الفقرة 1 (a) وهنا أكد النص على ضرورة أن يكون البحث وجمع المعطيات بطريقة قانونية وعادلة، ما يعني أن المعطيات التي يتم جمعها ومعالجتها يجب أن تكون شفاقة وقابلة للولوج من أجل التأكد من إحترامها للقانون وأنها جمعت بطريقة قانونية، وهنا تثير البرامج التي تعمل بالذكاء الإصطناعي اشكالا نظرا لافتقارها للشفافية، وحتى بتوفر الشفافية فهي تكون غير قابلة للتفسير نظرا لطابعها التقني الذي قد يصعب تفسيره حتى من طرف المختصين.
- تقييد الهدف من معالجة المعطيات :Purpose Limitation تم النص عليه في المادة 4 فقرة 1 (b) والمتدة 4 فقرة 2، ويعني أن الهدف الذي على أساسه تتم معالجة البيانات الشخصية لابد من أن يكون واضح ومحدد ويتلاءم مع ما يراد استخراج من بيانات الشخص، هذه المادة تثير بعض الإشكالات أهمها هي اختلاف نوعية أجهزة العدالة الجنائية وأهدافها، والنص لم يفثل في هذا الإختلاف واختلاف الأهداف باختلاف طبيعة كل جهاز، مما يجعل هذا النص فضفاضا ولا يحدد الأهداف بدقة، كمت يثير اشكالا مع طبيعة عمل برامج الذكاء الاصطناعي التي تقوم بجمع البيانات عشوائيا من الأنترنيت وكذلك البيانات البيوميترية حول الأشخاص مثل برنامج Clearview، مثل هذه البرامج توفر بيانات ضخمة حول الأفراد دون أي تحديد للأهداف والأشخاص.
- مبدأ تقليل البيانات Data Minimization ومبدأ تقييد تخزين البيانات Storage Limitation :
يعني تقليل البيانات أن البحث في هذه الأخيرة يجب ان يكون محدود ويخدم فقط هدف واحد الذي تم تحديده وهذا جاء في المادة 4 فقرة 1 (C). كما أن هذه البيانات يجب تقييد تخزينها وذلك بمنع تخزين البيانات التي لم تعد لها فائدة وان البيانات يجب الاحتفاض بها فقط لخدمة الهدف المحدد والوقت اللازم لإنجاز هذا الهدف كما اشارت له المادة 4 الفقرة 1(D) والمادة 5.
النص في مادته السادسة حدد الأشخاص الذين يجوز البحث في بياناتهم في اطار قانون LED وهو امر يساعد على التفرقة بينه وبين GDPR حيث حصر هؤلاء الأشخاص في :
– الأشخاص المدانون بجريمة
– ضحايا الجريمة غو الاشخاص الذين توجد علامات قوية انهم قد يصبحون ضحايا للجريمة
– أشخاص ممن لهم علاقة بالجريمة مثل الشهود والذين بامكانهم تقديم معلومات تخص الجريمة او لهم علاقة بالضحية أو المشتبه فيه.
ج- منع برامج معالجة المعطيات آليا بشكل أحادي.
أحد أهم مقتضيات هذا النص وعلاقته الوطيدة بالذكاء الإصطناعي في شق المعطيات، المادة 11 منعت أي معالجة آلية للمعطيات بشكل أحادي من طرف برامج المعالجة الآلية للمعطيات والتي يكون لها أثر قانوني في الشق الجنائي على من تمت معالجة بياناته الا إن قامت دولة عضو بالسماح بهذا الاستعمال مع ضرورة تقديم ضمانات ان هذا الاستعمال لن يضر بحقوق وحريات الشخص الذي تتعرض بياناته للمعالجة.
الفقرة 3 من نفس المادة قامت بمنع اي معالجة آلية للمعطيات غرضها تصنيف الأفراد الذي قد يقود الى التمييز بينهم.
النص وفر عدة حقوق للشخص الذي يتم التعامل ببياناته، منها ضرورة اعلامه ببعض المعلومات منها الطرف الذي يبحث في بياناته والهدف من هذا البحث وعيرها من المعلومات المنصوص عليها في المادة 13, المادة 14 تحدث عن ضرورة التواصل بيت معالج البيانات مع من تتم معالجته واخد موافقته.
بالنظر في هذا النص يتبين أنه وفر بعض الضمانات لحماية المعطيات ذات الطبع الشخصي، لكن التساؤل المهم الذي يجب أن نطرحه، هل هذه الضمانات قادرة على الحماية من برامج الذكاء الإصطناعي التي تستعملها الدول في إطار محاربة الجريمة، والجواب سيكون غاليا هو لا نظرا لطبيعة عمر برامج الذكاء الإصطناعي، نعم المادة 11 منعت استعمال هذه البرامج احادية القرارات، لكن مذا عن تلك الاي تعرف تدخل بشري، ومذا عن الاستثناء الذي منحته للدول وهو السماح بإستعمال هذه البرامج اذا وافقت الدولة العضو، وهذا ما يبرر استعمال بعض الدول الاوروبية للذكاء الاصطناعي في محاربة الجريمة، مما يجعل هذا القانون لا يوفر الحماية الكافية لعدة أسباب :
- برامج الذكاء الاصطناعي لا توفر الشفافية اللازمة للبحث في البيانات التي يتم معالجتها والتحقق من أهدافها ومدى دقة البيانات المستعملة خاصة في المعالجة الآلية للبيانات، عند التدخل البشري يمكن التتبع وذلك بالتحكم في نوع البيانات التي يتم تزويدها لهذه البرامج وبذلك البرنامج لن يستخدم بيانات خارجة عن الإطار والهدف المحدد.
- القدرات العالية للتخزين وجمع البيانات تجعل من الصعب تطبيق مبادئ مثل تقليل البيانات وتقييد تخزينها خاصة أن الدول تستعمل برامج تجمع البيانات من الانترنيت بشكل شامل مثلCLEARVIEW فكيف لقانون LED أن يوفر حماية ضد برامج مثل هذه.
- عدم قابلية تفسر نمط عمل الذكاء الاصطناعي وكيفية معالجته للبيانات والمنطق الذي يتبع يجعل أيضا تطبيق مبادئ هذا القانون صعبة، لكن مع ذلك فهو يوفر حماية نسبية وقد تكون جيدة متى ما تم التحكم في البيانات التي يتم تزويدها لهذه البرامج، لكن طبيعة عمل الذكاء الاصطناعي تجعل الأمر الذي يثير إشكالا وهذا ما جعل البرلمان الاوروبي يثير هذه الاشكاليات عدة مرات وعلى ضرورة انتاج ذكاء اصطناعي شفاف وقابل للتفسير، وهذا يقودنا إلى تساؤل مهم، هل يمكن الاكتفاء بقوانين حماية المعطيات للحماية من الذكاء الاصطناعي أم أصبح من الضروري تشريع قوانين خاصة بالذكاء الاصطناعي تتوافق مع طبيعة عمله خاصة في ظل التطور المستقل الذي تعرفه هذه التقنية.
الهوامش:
[1] الخوارزمية هي مجموعة من الخطوات الرياضية والمنطقية والمتسلسلة اللازمة لحل مشكلة ما. وسميت الخوارزمية بهذا الاسم نسبة إلى العالم أبو جعفر محمد بن موسى الخوارزمي الذي ابتكرها في القرن التاسع الميلادي.
[2] Serena Quattrocolo, Artificial Intelligence, Computational Modelling and criminal proceesings, legal studies in international, european and comparative criminalll law, Volume 4, Springer, P8
[3] تعني المراقبة الملاحظة المستمرة لمكان ما. شخص ما، مجموعة ما، أو نشاط ما بهدف جمع المعلومات وحسب هذا التعريف يتضح أن المراقبة هي عملية جمع المعلومات عن أمكنة معينة أو أشخاص معينين أو نشاطات معينة بهدف كشف جريمة أو تفادي وقوعها.
[4] Ibid, p4
[5] ميشيل فوكو، المراقبة والعقاب ولادة السجن، مركز الإنماء القومي، بيروت، 1990، ص 209
[6] المجتمع المنضبط: مفهوم اتى به ميشيل فوكو في معرض حديثه عن المراقبة، وهو مجتمع يكون فيه الأفراد والرعايا منصاعين للسلطة ويعلنون التطبيع مع فكرة مراقبتهم، ولا تصدر منهم أي نوع من المقاومة، فالدولة تستغني عن استعمال القوة في ضبط المجتمع، لان فكرة المراقبة تكون مرعبة للافراد مما يجعلهم منضبطين، هذا النموذج بدأ في المجتمعات الصغيرة كالشركات ومقرات العمل والمدارس والآن بدأ يتوسع ليشمل دولا بأكملها.
[8] China’s ubiquitous facial recognition tech sparks privacy backlach, www.the diplomat.com,4/1/2022, 15:58 min
[9] في سنة 2014 قامت الصين بالإعلان عن إطلاق مشروع اجتماعي ضخم اسمه برنامج الائتمان الاجتماعي Social Credit بالمشاركة مع جميع الفاعلين في المجتمع الصيني.
[10] Samuel J.persons, China Dreams, Legalism and the social credit system, 2020, Jstor, p74
[11] فيلم Minority Report يدور في عالم مستقبلي حين يكون باستطاعة الأمن توقع الجرائم وضبطها قبل حدوثها باستعمال الذكاء الإصطناعي
[12]Ibid, P2
[13] Ibid, P2
[14] علم الإجرام الحسابي : نوع جديد من علم الإجرام يعتمد بالأساس على علوم الحوسبة من أجل تفسير الجريمة وتعميق فهمنا للظاهرة الإجرامية وإعطاء حلول لمكافحتها
[15] Serena Quattrocolo, Ibid, p39
[16] Andrew G. Ferguson, Predictive policing theory, American university washington College of law, 2019, p494
[17] Wim Herdyns, Anneleen Rummens, predictive policing as a new tool for law enforcement, institute of international research on criminal policy, Ghent university, Belgium, 2017, p10
[18] WWW.AZAEVA.COM
[19] Ibid, p496
[20] ibid, p28
[21] Ibid, p28
[22] برنامج SSL او اللائحة الإستراتيجية للمشتبه فيهم، برنامج ذكاء إصطناعي تم تطويره بشراكة بين شرطة شيكاغو ومؤسسة إلينوس للتكنلوجيا بهدف تخفيض معدلات الجريمة بالتركيز على الجماعات التي ترتفع فيها جرائم الأسلحة النارية وتحديد اشخاص محتملين قد ينخرطون مستقبلا في هذه الجرائم
[23] على سبيل المثال، قد يتم تدريب خوارزميات التعلم الذاتي بواسطة مجموعات بيانات معينة (القرارات السابقة أو صور الوجه أو قواعد بيانات الفيديو، إلخ) التي قد تحتوي على بيانات متحيزة يمكن استخدامها من قبل التطبيقات لأغراض تتعلق بالسلامة الجنائية أو العامة، مما يؤدي إلى اتخاذ قرارات ظالمة
[24]Serena Quattrocolo, ibid, p25