عمر ادمنصور: طبيعة المسؤولية التقصيرية للروبوت الذكي-دراسة في ضوء المنظومة القانونية الحالية-
عمر ادمنصور باحث بسلك الدكتوراه
ملخص الدراسة
تتحدث هذه الورقة البحثية عن طبيعة المسؤولية التقصيرية التي يمكن للروبوت الذكي أن يتحملها نتيجة الأضرار التي تترتب عن أعماله في ضوء النظم القانونية المتاحة حاليا؛ حيث بدى لنا عدم قدرة الفرضيات المطروحة لإيجاد الأساس التشريعي الملائم للمسؤولية التي يمكن أن يتحملها هذا الكائن الجديد؛ إذ ثبت عدم إمكانية ترتيب المسؤولية التقصيرية الشخصية للروبوت الذكي، كما ثبت عدم إمكانية إنزال الروبوت منزلة الأشياء التي تتصف بالانقياد التام لصاحبها بخلاف الأول الذي بات يتمتع بنوع من الاستقلالية والتعلم من التجارب السابقة، وثبت كذلك محدودية إعمال نظام المسؤولية للمنتجات المعيبة كلية، غير أنه يمكن الاستناد إلى هذا النظام في حالة وحيدة هي حينما يكون الضرر الذي ترتب عن عمل الروبوت قد كان بسبب عيب شاب مرحلة تصنيعه.
الكلمات المفتاحية
الكلمات المفتاحية التقنية: الروبوت-الذكاء الاصطناعي-الاستقلالية-التعلم الذاتي.
الكلمات المفتاحية القانونية: المسؤولية التقصيرية-الشخصية القانونية-المسؤولية الشيئية-المسؤولية المدنية للمنتجات المعيبة.
مقدمة:
تعتبر المسؤولية التقصيرية من أهم الموضوعات القانونية التي اهتم بها الفقه والقضاء منذ بداية القرن العشرين، ولازال هذا الاهتمام في تصاعد مستمر نتيجة تجدد وتفاقم المخاطر التي يتسبب فيها الإنسان بفعله أو بفعل الأشياء التي في حراسته. ذلك، أن الثورة الصناعية أسفرت على تطور هائل في مجال التكنولوجيا الحديثة[1] التي كان لها وقع جد فعال في تحقيق الآمال البشرية، من استقرار وشيوع للرفاه الاقتصادي والاجتماعي .[2]
بيد أن، هذا التطور بالقدر الذي أسعد الإنسان، فإنه بالمقابل كان مصدر إزعاج له نتيجة لكثرة المخاطر التي نجمت عن سوء استعمال هذه الآليات والمنشآت الصناعية؛ فالآلة عادة ما تنطوي على قدر كبير من الخطر وغالبا ما يكون الإنسان أول ضحاياها، وهذا ما يتضح من خلال نمو وتيرة حوادث الشغل، حوادث السير[3] وكذا الأضرار الصادرة عن الروبوت[4] ذات الذكاء الاصطناعي .[5]
وبحسب ذلك، فإن استخدام الروبوت ذات النظام الاصطناعي الذكي[6] في مختلف الجوانب الحياتية، بفضل التقدم التكنولوجي المذهل على مدى السنوات العشر الماضية، أصبحت معه الروبوتات المعاصرة ليست فقط قادرة على تنفيذ المهام التي كانت في يوم من الأيام من مسؤولية البشر حصريا، ولكن أيضًا تطوير بعض الوظائف المستقلة والمعرفية؛ مثل القدرة على التعلم من التجربة أو اتخاذ قرارات شبه مستقلة. فخاصية القدرة على التعلم من التجربة أو اتخاذ قرارات شبه مستقلة جعلت هذه الروبوتات أقرب إلى حالة العملاء الذين يتفاعلون مع بيئتهم والقدرة على تعديلها بشكل كبير منه بالنسبة للآلة الميكانيكية؛ لتطرح بذلك عدة صعوبات تتعلق أساسا بالمسؤولية التقصيرية الممكن ترتيبها على ما قد يصدر عنه من أعمال ضارة ومدى وملاءمتها مع نظم المسؤولية المدنية المتاحة حاليا وقدرتها على استيعاب الخصائص الفريدة لهذا الكائن الجديد[7].
وبالبناء عليه، فإن استقراء المنظومة القانونية الحالية، تبين بأنه ليس ثمة نظام قانوني خاص بما يصدر عن الروبوت ذات الذكاء الاصطناعي من أعمال ضارة؛ الأمر الذي دفع الفقه إلى التصدي لهذا الأمر فانقسم إلى قسمين: أما الأول، فقد ذهب إلى إمكانية إدخال الروبوت ذات الذكاء الاصطناعي ضمن حكم الأشياء؛ على اعتبار أن الأخيرة تتسع لتشمل كل ما يمكن أن يستجد من نظائرها بما فيها الروبوت من جهة، وإلى إدخاله ضمن حكم المنتوجات؛ لأن الروبوت ينتج من لدن شركة مصنعة ترمي إلى عرضه في الأسواق من جهة أخرى. وأما الثاني، فقد ذهب غير ما ذهب إليه الأول؛ حيث دعى إلى ضرورة البحث عن نظم خاصة بالمسؤولية المدنية عن الروبوت تخرجه من مفهوم الأشياء جملة، ومن مفهوم المنتوجات إلا في الأحوال التي يكون سبب الفعل الضار الصادر عن الروبوت راجعا إلى مرحلة التصنيع فقط.
ومن المهم البيان، أن موضوع المسؤولية المدنية التقصيرية للروبوت ذات الذكاء الاصطناعي لم يصر كامل البنيان، وإنما ثمة مبادرات أولية لتأطيره القانوني؛ تجسدت في التقرير الذي أصدره البرلمان الأوروبي سنة 2017 حول القانون المدني الخاص بالروبوتات[8]؛ والذي أكد فيه على ما للروبوتات المزودة بقدرات التعلم الذاتي والاستقلالية[9] من خصوصيات جعلته يدعو إلى ضرورة تطوير قواعد جديدة للمسؤولية المدنية يراعى فيها مقدار تطورها وسيطرة المستخدم البشري عليها، كما أكد على عدم كفاية الإطار القانوني المتاح حاليا لتنظيم المسؤولية المدنية التقصيرية الناجمة عن الأضرار المحتمل صدورها من لدن الروبوت ذات الذكاء الاصطناعي؛ حيث دعى إلى إيجاد مركز قانوني جديد لها على المدى البعيد، وقوانين حديثة لمواكبة التطور التقني في ميدان الذكاء الاصطناعي على وجه العموم[10]. بينما ذهب المعهد البرلماني الفرنسي للتقييم العلمي والتكنولوجي Office parlementaire d’évaluation des choix scientifiques et technologiques في تقريره الصادر بتاريخ 15 مارس 2017، إلى اعتبار أنه ثمة حاليا نظاميين بمقدورهما احتواء الأضرار الصادرة عن الروبوتات: يتجسد الأول في القواعد الناظمة لمسؤولية حارس الأشياء، بينما يتمثل الثاني في أحكام المسؤولية الناظمة لفعل المنتجات المعيبة. وفي ذات الاتجاه، ذهب النظام الأنجلو أمريكي-أوروبي إلى الاستناد إلى نظم تقليدية للمسؤولية المدنية؛ من أجل تعويض المتضررين من أعمال الروبوت الضارة[11].
وهكذا، يبين لنا فائدة دراسة موضوع المسؤولية التقصيرية للروبوت ذو الذكاء الاصطناعي؛ وذلك على مستوى النظر والعمل.
أما بخصوص المستوى النظري، فإن أهمية الموضوع تتجلى من:
– أن موضوع البحث يشكل مرتعا خصبا لاقتراح تصورات قانونية استشرافية تحدد أسس وطبيعة التعامل القانوني مع هذا الكائن الجديد “الروبوت” ذي الظاهرة الرقمية المادية المحسوسة، المتجاوز لحدود البعد الافتراضي إلى حدود الواقع الفعلي القائم على جيل جديد من الروبوت الذي لا محالة سنجده يوما ما جنبا إلى جنب، وكتفا إلى كتف مع العرق البشري؛
– أنه موضوع يعرف فراغا في الخزانة القانونية المغربية لحداثته، وأن قانون الروبوت لازال الآن في القانون المقارن قانونا جنينيا، ولم يشتد عوده بعد؛
-الواقع التكنولوجي المتسارع في التطور قد يجعل القانون غير قابل للتطبيق في المستقبل؛ بسبب عدم مناسبته لتنظيم وقائع غير بشرية أو مشتركة بين البشر والروبوتات؛ ومن ثم فقد يفقد القانون جدوى وجوده لعدم احتوائه لمثل هذه المستجدات؛
– نذرة المراجع باللغة العربية، وقلتها خصوصا الفقه المغربي الذي قلما خص هذا الموضوع بالبحث والدراسة، وهذا النقص في المراجع الوطنية، يقابله حركية محترمة في بعض الدول العربية، وثراء في المؤلفات الأجنبية خاصة منها الفرنسية، الإيطالية والإنجليزية؛ وهذا يرجع إلى أنهم قد تنبهوا إلى قدر وأهمية دراسة هذا الموضوع القانوني المتعلق بالمسؤولية المدنية التقصيرية للروبوت ذات الذكاء الاصطناعي، وتأثيره المباشر على مختلف النواحي الحياتية؛
-وتعدد نظم المسؤولية المدنية التي يمكن اعتبارها أساسا قانونيا للأضرار المترتبة عن أعمال الروبوت الضارة، وكذا تضارب الآراء الفقهية وعدم توحدها؛ الأمر الذي يجعل من العسير تبني هذا الموقف أو ذاك مع تبرير ذلك وتبين الراجح من المرجوح.
وأما بخصوص المستوى العملي، فإنها تتجلى في أن موضوع المسؤولية التقصيرية للروبوت الذكي، يطرح عدة إشكالات تتعلق تارة بالتكييف القانوني للروبوت الذكي، وطورا بالطبيعة القانونية للمسؤولية المدنية التي تترتب عن الأعمال الضارة للروبوت الذكي، وطورا آخر بمدى تمتيعه بالشخصية القانونية والذمة المالية، وأحيانا أخرى بمدى خضوع الروبوت الذكي لنظام إجباري للتأمين. فضلا عن المستجدات التي أوجدها البرلمان الأوروبي في إطار بيان القواعد الخاصة بالمسؤولية المدنية للروبوت الذكي والتي شكلت ثورة على مستوى المفاهيم القانونية القائمة للمسؤولية المدنية المعتمدة في الأنظمة القانونية الحالية.
ومن ثم، فإن أتمتة مختلف الجوانب الحياتية سيشكل تحديا قانونيا، بمعنى أن القواعد القانونية الحالية قد لا تكون كافية أو مناسبة لتأطير هذا الواقع الجديد. فلئن كانت التكنولوجيا إلى غاية القرن العشرين مجرد أداة سلبية بيد البشر، فأن تكنولوجيا الروبوت ذات الذكاء الاصطناعي أحدثت تغيرا جذريا من خلال كونها أصبحت آلات تفاعلية (سريعة الاستجابة لتغييرات بيئتها) ومستقلة (ذاتية التحكم في أفعالها لا تخضع لأية رقابة بشرية مباشرة)، وموجهة نحو هدف محدد (تتصرف بطريقة عمدية بفضل قدرتها الكبيرة على التعلم واتخاذ القرار). بحيث انتقلت هذه الآلات من التلقائية إلى الاستقلالية؛ ذلك أن الروبوت ذات الذكاء الاصطناعي أصبح يرتب نتائج مستقلة ومتمايزة قد يستحيل معها توقع المستقبل، وذلك ليس بسبب الانسان؛ وإنما بسبب استقلالية الآلة. وعلى الرغم من ذلك، فإنه لا يمكن تصور إمكانية الاعفاء من المسؤولية عن استخدام الروبوت ذات الذكاء الاصطناعي على أساس استقلالية الأعمال الصادرة عنه.
لذلك، تتبدى لنا الإشكالية التي يبحثها هذا الموضوع وهي على ما يلي: ما مدى فعالية قواعد المسؤولية التقصيرية الحالية في تنظيم الأضرار الصادة عن الروبوت الذكي؟
ويتفرع عن الإشكال الرئيسي، عدة تساؤلات جزئية من قبيل:
- هل يمكن تصور وجود شخصية قانونية للروبوت؟
- هل يمكن إقامة المسؤولية الشخصية للروبوت؟
- هل يمكن تكييف الروبوت على أنه شيء؛ لإعمال مسؤولية حارس الشيء؟
- هل يمكن إسقاط معيار الحراسة على الروبوت؟
- هل يمكن وصف الروبوت بالمنتوج؛ لتطبيق مسؤولية المنتج عن المنتجات المعيبة؟
وعليه، يمكن القول-افتراضا للجواب على الإشكالية والأسئلة المتفرعة عنها-إن نظم المسؤولية المدنية المتاحة حاليا لا تتلاءم وخصوصيات الروبوت ذات الذكاء الاصطناعي، والتي جعلت معظم المحاولات الرامية إلى تكييفه على أنه شيء أو منتوج أو إلى تحميله المسؤولية شخصيا، قاصرة وغير مطابقة للحقيقة التكوينية له وما له من مكنتي التعلم الذاتي والاستقلالية؛ الأمر الذي يقتضي التأسيس لمنظور جديد يكرس نظما خاصة بالمسؤولية المدنية للروبوتات.
وسنحاول للإجابة عن الإشكالية من جهة، وإثبات صحة الفرضية من جهة ثانية، أن نبحث الموضوع وفق ثلاث فقرات: نخصص الأولى لبحث محدودية المسؤولية التقصيرية الخطئية عن الفعل الشخصي، بينما نخصص الثانية لبحث قصور المسؤولية التقصيرية الخطئية عن فعل الأشياء، في حين نتحدث في الثالثة عن حدود المسؤولية التقصيرية الموضوعية عن فعل المنتجات المعيبة. وعليه، يرتسم منهاج بحثنا لهذا الموضوع، وهو على ما يلي:
- الفقرة الأولى: محدودية المسؤولية التقصيرية الخطئية عن الفعل الشخصي
- الفقرة الثانية: قصور المسؤولية التقصيرية الخطئية عن فعل الأشياء
- الفقرة الثالثة: حدود المسؤولية التقصيرية الموضوعية عن فعل المنتجات المعيبة
الفقرة الأولى: محدودية نظام المسؤولية التقصيرية عن الفعل الشخصي
من المعلوم أن أشخاص القانون هما: الشخص الطبيعيpersonne physique والشخص الاعتباريpersonne morale؛ إذ أنه لا يعترف من حيث المبدأ إلا بهذين النوعين من الأشخاص القانونية، مانحا كل منهما مركزا قانونيا يتماشى وطبيعته وخصوصيته؛ بحيث إن الشخص الطبيعي يبحث مفهوم الشخص المادي الملموس، المتمثل في الوجود المادي الحقيقي أو المتوقع أو المفترض للإنسان. بينما الشخص الاعتباري يفترض القانون وجوده حقيقة لأغراض معينة، سواء كانت أشخاص اعتبارية عامة (المؤسسات العمومية، الجماعات المحلية…) أو أشخاصا اعتبارية خاصة (الشركات، الجمعيات والتعاونيات ومجموعات النفع الاقتصادي). بيد أن، السؤال المطروح في هذا الإطار هو حول إمكانية حصول شخصية قانونية للإنسان الآلي؟
ولأجله، ذهب بعض الفقه [12]إلى أنه وفي ظل غياب أي تصور فلسفي لارتباط الشخصية بمعزلة عن الإنسان، فإن الربط كان يقوم على اقتصار الشخصية على الإنسان، فلا شخصية إلا للإنسان، ولا شخصية قانونية إلا للإنسان؛ مع العلم أن هذه الشخصية رغم ارتباطها بالإنسان لم تكن تمنح لكل إنسان، بل فقط لمن يعترف له القانون بصفة الإنسان. ذلك، أن الإنسان في مرحلة العبودية وبالرغم من تحقق صفة الأنسنة فيه، لم تكن له شخصية طبيعية أو قانونية؛ وإنما كان يعد في حكم الأشياء. لذلك، بدأ الفصل بين الشخصية الطبيعية ونظيرتها القانونية؛ بحيث إذا كانت الأولى قد منحت للإنسان باعتباره إنسانا، فإنما الثانية قد منحت له باعتباره أهلا للحقوق والالتزامات؛ فكلما كان الإنسان حرا اكتسب بذلك الشخصية الطبيعية، وكلما كان أهلا لاكتساب الحقوق والتحمل بالالتزامات اكتسب بذلك الشخصية القانونية[13].
وفي ذات المنحى، اعتبر فقه آخر[14] أن التمييز بين مفهوم الإنسان والشخصية بشكل عام، هي قضية فلسفية جدلية عميقة بين أهل الفلسفة والقانون؛ ذلك أنه إن كانت صفة الإنسان لا تمنح إلا للكائن الطبيعي، فإن صفة الشخصية بعد أن كانت حكرا خالصا للإنسان ببعده الطبيعي تجاوزت اليوم هذا القيد؛ فصفة الأنسنة في حقيقتها هي صفة منفصلة في تأصيلها الفلسفي عن صفة الشخصية ببعدها القانوني التي هي صنعة قانونية بامتياز وجدت لتعالج بعض المشاكل القانونية التي ترتبط بنشاط الإنسان في الإطار القانوني. وعليه، فالأنسنة مدلول فلسفي والشخصية مدلول قانوني، فالأخيرة هي وعاء للأولى.
ومن خلال ما تقدم، يتضح أن المحدد الأساس لاكتساب الشخصية القانونية، ليس الأنسنة في حد ذاتها؛ وإنما هو القدرة على اكتساب الحقوق والتحمل بالالتزامات. لذلك، أصبحنا اليوم نتحدث عن الشخصية القانونية للأشخاص الاعتبارية؛ بل ثمة من الأنظمة القانونية الغربية التي اعترفت ببعض صفات الشخصية القانونية للحيوان[15]؛ لتتعدى بذلك صفة الشخصية الوجود المادي للإنسان، الوجود المعنوي للأشخاص الاعتبارية وصولا إلى الكيان المادي لغير الإنسان كما هو حال الحيوان.
وفي ضوئه، يمكن القول إنه ولئن كانت العبرة في تحديد الشخصية القانونية هي بالقدرة على اكتساب الحقوق والتحمل بالالتزامات، فهل يمكن تصور وجود شخصية قانونية للإنسان الآلي إذا ما توفرت عنده القدرة على التحمل بالواجبات واكتساب الحقوق؟
لقد ذهب الفقه القانوني في مسألة الشخصية القانونية للإنسان الآلي، أربعة مذاهب[16].
أما الأول، فقد ذهب إلى القول بعدم وجود مبرر قوي يدعو للاعتراف بالشخصية القانونية للروبوت، وبأنه ستبقى الروبوتات عبارة عن أشياء من ناحية التوصيف القانوني، ويتم حل الإشكاليات الناشئة عن الأضرار التي تسببها تلك الروبوتات من خلال إقرار نظام التأمين الإلزامي عن حوادث الروبوت، وإنشاء صناديق خاصة لتغطية أضرارها كنظام مكمل للتأمين في حالة عدم وجود غطاء تأميني.
وأما الثاني، فقد ذهب إلى القول بإن الروبوت يمكن اعتباره وكيل عن الانسان في القيام بالأعمال الموكلة إليه، أي ضرر يصيب الغير نتيجة عمل الروبوت يمكن الرجوع به على الانسان (الموكل) انطلاقا من أن آثار تصرفات الوكيل تنصرف إلى ذمة الأصيل، بيد أن هذا الاتجاه تعرض لنقد شديد؛ إذ أن الوكالة لا تتم إلا بين شخصين قانونيين، فكيف يكون الروبوت وكيلا وهو لا يتمتع بالشخصية القانونية؟.
وأما الثالث، فذهب إلى إمكانية إعطاء الروبوت شخصية اعتبارية (معنوية) شأنه شأن بقية الأشخاص الاعتبارية التي يمنحها القانون الشخصية القانونية؛ وبالتالي يتمتع بالاسم، الموطن، الذمة المالية المستقلة، الجنسية والأهلية. ويكتسب شخصيته القانونية بعد استكمال إجراءات تسجيله في سجل عام تعده الدولة لهذا الغرض، وتدون في هذا السجل كافة المعلومات المتعلقة بالروبوت كوضعه المالي وقدراته وطبيعة عمله وغيرها، ويمكن لأي شخص الاطلاع عليها إذا أراد التعامل مع الروبوت، بيد أن هذا التشبيه مع الفارق لم يكن دقيقا، فالشخص الاعتباري تتم إدارته من قبل الانسان في حين الروبوت سيدير نفسه بنفسه؛ لأنه يتمتع بالتفكير الآلي الاستقلالي.
وأما الرابع، فإنه ذهب إلى أن الروبوتات في الوقت الحالي ليست مستقلة بما فيه الكفاية حتى تتطلب وضعا قانونيا معينا، كالاعتراف لها بالشخصية القانونية؛ وإنما ستظل باعتبارها أشياء من وجهة نظر القانون، ولكن يبدو أن الوضع القانوني المحدد للروبوتات والاعتراف بالشخصية القانونية لها ستكون أمر لا مفر منه في حالة تزايد استقلالية الروبوتات.
أما الرأي الذي أميل إليه، فهو الأخير، ولكن ليس على إطلاقيته؛ وإنما في الشق الأخير من تحليله؛ خاصة إذا استحضرنا الخصائص الفريدة التي تبعد كل وصف للروبوت على أنه شيء أو منتوج. وعليه، يطرح التساؤل حول الموقف الذي وقفته المؤسسات الرسمية الأوروبية فيما له صلة بالشخصية القانونية للروبوت؟
وهكذا، يبدو أن القانون المدني الأوروبي الخاص بالروبوتات الصادر في 16 فبراير 2017[17] قد أقام وزنا للاتجاه الرابع-السابق الذكر-إذ أنه وجه لجنة قواعد القانون المدني بشأن الروبوتات عند قيامها بإجراء مراجعة لهذا التشريع مستقبلا بدراسة موضوع الاعتراف بالشخصية القانونية للروبوت في الحالات التي تكون فيها للروبوتات سلطة مستقلة في اتخاذ القرارات أو التفاعل مع الأطراف الأخرى بشكل مستقل[18]. وذلك طبقا للمبدأ المنصوص عليه في الفصل 59 من القانون المدني الأوروبي الخاص بالروبوت[19].
ومعنى هذا، أن الروبوت سيتمتع بالشخصية الالكترونية في المستقبل عند ظهور الاجيال الجديدة منه ذات القدرة على التفكير والتعلم والتأقلم واتخاذ القرارات بشكل مستقل من دون أدنى تدخل من قبل الانسان. بالإضافة إلى أن المشرع الأوروبي قد تعامل مع الروبوت بوضع خاص؛ إذ ابتكر نظرية جديدة لأساس المسؤولية المدنية عن الاضرار التي يسببها الروبوت، ومؤدى ذلك أنه لم يعتبر الروبوت ضمن وصف الأشياء، ومن ثم فهو بدأ بالتأسيس لمنزلة الشخص الالكتروني الكامل الأهلية الذي سيتمتع بالجنسية والذمة المالية المستقلة، وبالتالي سيسأل الروبوت عن أفعاله مدنيا وجنائيا، وهذ ما كان في الماضي القريب ضرب من ضروب الخيال العلمي[20].
بخلاف، المجلس الاقتصادي والاجتماعي الأوروبي الذي استعمل مصطلح الشخص المنقاد Human in Command، على خلاف المشرع الأوروبي الذي استعمل مصطلح الشخص الالكتروني electronic personality. حيث رأى المجلس الاقتصادي والاجتماعي الأوروبي في هذا المصطلح وسيلة عقلانية تساعد على تأمين تطور منطقي ومتدرج لهذه الآلات لا يخرج عن هذه المحددات بكونها محكومة حصرا في الإرادة الإنسانية ومنقادة وفق توجيهات هذه الإرادة؛ فهو بذلك ذهب إلى منح الروبوت شخصية قانونية، لكن ليست شخصية قانونية مستقلة، وإنما هي شخصية منقادة[21].
وعلى هذا، يتضح أنه بينما استخدم المشرع الأوروبي مصطلح الشخصية الالكترونية للروبوت قاصدا من ذلك الشخصية القانونية للروبوت، نجد أن المجلس الاقتصادي والاجتماعي الأوروبي قد استعمل مصطلح الشخص المنقاد، ليقيد من مصطلح الشخصية القانونية الالكترونية التي جاءت عامة. لكن، نجد أنه ثمة من الباحثين[22] من ذهب إلى أن التسمية الأدق للشخصية التي قد يتم منحها للروبوت هي الشخصية الافتراضية؛ لأنها تمثل افتراضا قانونيا ناشئا عن ضرورات الواقع العملي، في حين أن تسمية الشخصية الالكترونية تقترب من المعنى التقني أكثر من القانوني من ناحية، وقد يتم منحها للأشخاص العاديين الذين يمارسون نشاطا اجتماعيا على الأنترنت دون أي تواصل اجتماعي حقيقي من ناحية أخرى.
ونحن، إذ نثمن ما جاءت به المؤسسات الرسمية الأوروبية من توصيفات للشخصية القانونية للروبوتات، فإننا نقف موقف الذي يذهب إلى استعمال مصطلح الشخصية الافتراضية منه بالنسبة للشخصية الالكترونية أو الشخص المنقاد؛ ذلك لأن مصطلح الافتراض هو أقرب إلى حقل القانون من باقي المصطلحات الأخرى من جهة، وهو أدق وصفا للمركز القانوني الذي سيحظى به الروبوت مستقبلا من نحية أخرى. وإذا تقرر ما سبق، فإن سؤالا الذي يطرح في هذ الإطار وهو هل للاعتراف بالشخصية الافتراضية للإنسان الآلي رابطة بنظام المسؤولية المدنية؟.
ومن الرجوع إلى الفصل 77 من قانون الالتزامات والعقود المغربي[23] نجده ينص على أنه:” كل فعل ارتكبه الإنسان عن بينة واختيار، ومن غير أن يسمح له به القانون، فأحدث ضررا ماديا أو معنويا للغير، ألزم مرتكبه بتعويض هذا الضرر، إذا ثبت أن ذلك الفعل هو السبب المباشر في حصول الضرر.”
وواضح من النص أعلاه، أن المشرع استعمل لفظ “الإنسان” وهو ينصرف فقط إلى الأشخاص الطبيعية دون أن يشمل الأشخاص الاعتبارية أو ما يمكن أن يصطلح عليه بالشخصية الافتراضية للروبوت. بحيث لو استعمل المشرع لفظ “الشخص” لكان لفظا عاما يستغرق كل أفراد الأشخاص بما فيهم الشخص الاعتباري والشخصية الافتراضية للروبوت. ولكنه، وضع لفظا خاصا لا يحتمل أي تأويل. ونفس الأمر ينطبق على المشرع الفرنسي الذي استعمل عبارة” Tout fait quelconque de l’homme” كل فعل ارتكبه الإنسان؛ إذ أنه لم يستعمل عبارة” personne ” لتشمل حتى الشخص الاعتباري والشخصية الافتراضية للروبوت.
بيد أن، القاعدة في مجال تفسير النصوص الغامضة هو أن يتم تفسير النصوص بعضها بالبعض الآخر؛ في إطار ما يسمى بمنهج النظر التكاملي للنصوص، لذلك فإنه وبالرجوع إلى الفقرة الأولى من الفصل 78 من نفس القانون[24]، نجده ينص على أنه: “كل شخص مسؤول عن الضرر المعنوي أو المادي الذي أحدثه، لا بفعله فقط ولكن بخطإه أيضا، وذلك عندما يثبت أن هذا الخطأ هو السبب المباشر في ذلك الضرر.”
فالظاهر من خلال البنية اللفظية للنص أعلاه، أن المشرع قد استعمل لفظ “الشخص” وهو لفظ عام يستغرق كل أفراد الأشخاص؛ ومن بينهم الشخص الاعتباري وذلك ليس مقتصرا على الصيغة العربية للنص التشريعي المشار له؛ وإنما حتى في الصيغة الفرنسية له، والتي جاء فيها عبارة” Chacun est responsable،”. ولكن السؤال المطروح هو هل يمكن اعتبار الشخصية الافتراضية للروبوت داخلة ضمن حكم الشخص المسطر أعلاه؟
من وجهتنا، أن الإجابة عن هذا السؤال تكون بالسلب لا بالإيجاب؛ ذلك أنه وباستحضار أسباب النزول كضابط من ضوابط تفسير النصوص الغامضة، سيبين لنا-وبجلاء-أن السياق الذي وضع فيه هذا الحكم التشريعي لم يكن للروبوت أي وجود فيه؛ لذلك فإنه لا يمكن القول إن لفظ الشخص المستعمل ضمن الفصل أعلاه يشمل حتى الشخصية الافتراضية للروبوت.
وزيادة في الإيضاح، ذهب أحد الباحثين معلقا على القانون المدني الكويتي[25]؛ معتبرا أن العبارة المذكورة في القانون المدني لا يُمكن تفسيرها –وفقاً لقصد المشرع-على أنَّها يُمكن أن تشمل الأشياء إلى جانب الأشخاص لسببين: -أن المشرع استخدم حرف “من” وهذا الحرف يستخدم للدلالة على الأشخاص؛ فنقول: من المسؤول؟ وليس من الشيء المسؤول؟ وإنما نقول: ما هو الشيء؟ -أن قيام مسؤولية الروبوت كشيء من الناحية المدنية يتنافى والآلية القانونية التي تفرض وجود شخص قانوني ذو ذمة مالية قادر على تحمل الالتزامات، وهذا الأمر غير ممكن تجاه الأشياء. وبالتالي، فلا يجوز الحديث من الأساس عن قيام المسؤولية المدنية ضد الروبوت من حيث الفقه، ليس من باب المنطق؛ وإنما من منطلق القواعد القانونية الآمرة التي لا يجوز مخالفتها. وتأصيلا على ذلك، فقد أقرت محكمة التمييز الكويتية مبدأ مفاده أن أية مجموعة من الأموال لم يعترف القانون لها بهذه الشخصية لا تعد ذمة مالية مستقلة عن الذمة المالية لصاحبه. وصاحبها في حالة الذكاء الاصطناعي والروبوتات هو مالك الروبوت.
ويعني هذا الطرح-القائم في الواقع حاليا-أنه على المحكمة التي يدفع أمامها أي خصم بمسؤولية الروبوت كشخص قانوني أن ترد دفعه وتلتفت عنه لبطلانه؛ فلا يمكن لأية محكمة-حتى محكمة التمييز-أن تقر مبدأ يخالف النصوص القانونية الآمرة. ولكن، لابد للآلة من قواعد قانونية تحكم عملها غير المشروع، فلا يمكن ترك وقائع الضرر التي قد تتسبب به الروبوتات دون تأصيل قانوني. وبناء عليه، فلا يبدو أمام القضاء-في ظل البيئة التشريعية الحالية-سوى الاعتماد على تأصيل الروبوت الذكي على أنه شيء يتطلب عناية خاصة لمنع وقوع الضرر منه؛ سيرا على منوال الأستاذ BOURCIER من الفقه الفرنسي الذي اعتبر أنه على القانون حماية الأفراد من استخدامات الذكاء الاصطناعي؛ وبالتالي على المحكمة تطبيق قواعد حراسة الأشياء على المسؤولية المدنية المترتبة على أخطاء الآلات الذكية؛ وكأن الروبوت هو سيارة أو آلات صناعية ميكانيكية. وهذا يعني أن حارس الروبوت سيتحمل مسؤولية مدنية غاية في الثقل، فعلى الرغم من أن الروبوت-تقنيا-مستقل ذاتيا ويتمتع بقدرة على تجنب الأخطار، فإن حارسه سيسأل عن أي ضرر آت من تشغيله بشكل مفترض دون حاجة لإثبات الخطأ، بحيث لا يمكن دفع هذه المسؤولية إلا عبر إثبات السبب الأجنبي، وهي في الحقيقة مهمة صعبة المنال[26].
وهو الذي جسده القانون المدني الأوروبي الخاص بالروبوتات؛ حيث ذهب إلى أنه لا يمكن تحميل الروبوت المسؤولية المدنية التقصيرية شخصيا؛ وإنما يتحمل المسؤولية عن كل الأضرار الصادرة عن الروبوتات ذات الذكاء الاصطناعي الإنسان وحده النائب البشري. بحيث لو أحدث روبوتا ذات ذكاء اصطناعي ضررا بأحد الأغيار، فإن الأخير لا يسوغ له مسائلة الروبوت شخصيا؛ وإنما عليه أن يتقدم بدعواه في مواجهة صاحبه الإنسان للحصول على تعويض يجبر ما لحقه من أضرار جراء عمل الروبوت[27]. ولعل السبب في ذلك هو غياب عنصر الإدراك والتمييز الذي يعد مناطا للمسؤولية المدنية الشخصية؛ حيث عبر ق.م.أ.ر على ذلك بأنه: “يجب أن يدرك المستخدمون أن أي روبوت يمكن أن يكون له حدود إدراكية وحدود معرفية وحدود تشغيل[28].”
وفي نفس الصدد، ذهب القانون المدني الأوروبي الخاص بالروبوتات إلى أنه وبموجب الإطار القانوني الحالي، لا يمكن تحميل الروبوتات المسؤولية عن أفعالها أو إهمالها في حالة حدوث ضرر للأغيار؛ حيث إن قواعد المسؤولية الحالية تغطي الحالات التي يمكن أن يُعزى فيها سبب أفعال الروبوت أو إهماله إلى جهة نائب بشري محدد مثل الشركة المصنعة أو المشغل أو المالك أو المستخدم وحيثما يكون ذلك كان بإمكان الممثل توقع السلوك الضار للروبوت وتجنبه؛ في حين أنه علاوة على ذلك ، يمكن أن يتحمل المصنعون أو المشغلون أو المالكون أو المستخدمون المسئولية الموضوعية عن أفعال أو إهمال الروبوت[29].
وبالبناء عليه، يتضح أن قيام المسؤولية المدنية الشخصية للإنسان الآلي أمر غير مستساغ لا من ناحية الصياغة التشريعية فقط؛ وإنما حتى من ناحية الحالة القانونية[30]؛ إذ أن قيام مسؤولية الروبوت الشخصية يتطلب وجود ذمة مالية مستقلة عن صاحبه والتمييز الذي يعد مناطا لقيام المسؤولية التقصيرية، وهو ما لا يتوفر عند الروبوت حاليا؛ ومن ثم تظهر الحاجة إلى إيجاد نظام للمسؤولية المدنية للإنسان الآلي تراعى فيه خصوصيات هذا الكائن الجديد المزدوج الهيأة التكوينية الروبو-بشرية.
الفقرة الثانية: قصور نظام المسؤولية الخطئئية عن فعل الأشياء
إن المتأمل في مضمون النصوص التشريعية المنظمة للمسؤولية عن حراسة الأشياء[31]، سيبين له أنها تشترط لإعمالها، تحقق ثلاثة شروط أساسية: أما الأول، فهو أن يتعلق الأمر بشيء. وأما الثاني، فهو إحداث الشيء لضرر للغير. وأما الثالث، فهو أن يكون ثمة حارس على الشيء. لذلك، فإننا سنعمل على بحث مدى توافر صفة الشيء في الروبوت ذو الذكاء الاصطناعي، ثم ننتقل لبحث مدى قيام واقعة الحراسة في العلاقة الرابطة بين الروبوت ذو الذكاء الاصطناعي ومستخدمه.
أما بخصوص صفة الشيء، فقد انشطر الفقه إلى اتجاهين: أما الأول، فقد رأى بأن الروبوت لا يعدو أن يكون إلا شيئا؛ يتعين معه إعمال المسؤولية المدنية الشيئية فيما يترتب عنه من أعمال ضارة، بينما الثاني، اعتبر أن الروبوت لا يدخل ضمن حكم الأشياء؛ على اعتبار أن صفات الأخيرة شبه منعدمة بالنسبة للروبوتات الذكية.
أما الاتجاه الأول، ويمثله الفقه الفرنسي[32] المنتمي إلى المدرسة الكلاسيكية، والذي نادى بإمكانية تطبيق أحكام المسؤولية الناشئة عن الأشياء؛ باعتبار نظام الذكاء الاصطناعي شيئا يدخل في نطاق مفهوم الشيء الورد في المادة 1242 من القانون المدني الفرنسي[33]. وقد توافقت هذه الرؤية مع رؤية محكمة النقض الفرنسية التي أشارت في قرار لها بتاريخ 2018، إلى أن روبوت الإجابة عن رسائل البريد الالكتروني على أنه مجرد برنامج حاسوبي/معلوماتي Programme Informatique دون منحه أية صفة نيابية عن مشغله؛ أي أنه مجرد وسيلة تساهم في تدفق البيانات في الفضاء الرقمي خدمة للحاجات العامة من جهة أخرى[34].
وفي ذات الاتجاه، سار الفقه الأوروبي حينما اعتبر أنظمة الذكاء الاصطناعي عموما، والروبوت على وجه الخصوص، بمثابة أداة مفضية للضرر “as a tool” وذلك تجسيدا للقاعدة العامة القاضية بأن: “صاحب الأداة يعد مسؤولا عنها وعن عواقب استخدامها، طالما أنها لا تملك إرادة مستقلة عن مالكها”[35]. وفي هذا، نجد المادة 12 من اتفاقية الأمم المتحدة بشأن استخدام الخطابات الإلكترونية في العقود الدولية[36]، والتي حددت فيها المذكرة الإيضاحية التي أصدرتها أمانة الأونيسترال، المبدأ العام في هذا المجال[37]. إذ أن المادة أعلاه، توجب مسائلة أي شخص طبيعيا كان أم كيانا قانونيا، قام ببرمجة الحاسوب ليتصرف نيابة عنه، عن فعل أي رسالة تم إصدارها بواسطة هذا الجهاز[38]. وهذ هو الأساس الذي استند إليه الفقيه الإيطالي Ugo Pagallo [39] للتنظير لفكرته الذكاء الاصطناعي كأداة، وذلك بالاعتماد على قواعد المسؤولية المدنية الموضوعية Strict liability لمساءلة الأشخاص الطبيعيين أو الاعتباريين الذين تتصرف هذه الكيانات نيابة عنهم، بغض النظر عما إذا كان التصرف متوقعا أم غير متوقع[40].
والسير مع هذا التوجه، يعني أن اعتماد نظرية اعتبار الروبوت والذكاء الاصطناعي أداة، يعني وجوب إلقاء عبء تعويض الأضرار المترتبة عن عمل الروبوتات على صانعها، مالكها، مشغلها أو مستعملها؛ استنادا إلى المسؤولية عن فعل الغير أو المسؤولية النيابية Vicarious Liability، ويترتب على هذا القول حسب الفقيه الإيطالي Ugo Pagallo أنه لا يمكن لمالك الروبوت أن يتملص من المسؤولية بدعوى أنه لم تتجه إرادته إلى إبرام العقد، أو أن الروبوت ارتكب خطأ جسيما من جهة، وأنه يسوغ لمالك الروبوت، في حالة صدور سلوكيات غير منتظمة من لدن الروبوت، ممارسة حقه في الرجوع على المصمم أو المنتج للمطالبة بالتعويض، مع التزام المالك بإثبات أن الروبوت كان معيبا وأن الأخير كان موجودا لما كان تحت سيطرة الشركة الصانعة، وأن العيب هو السبب المباشر المفضي للأضرار التي لحقت به. في حين، ذهب البعض إلى أنه وبتحليل النظرية القائلة بوجوب مساءلة مالك الروبوت أو مستعمله، عن فعل الأضرار التي يرتبها، يتبين أنه من غير المستساغ مساءلة هذه الفئة من الذكاء الاصطناعي عن فعل تقنيات ومكنات ذكية لا سيطرة لهم عليها.
وإذا كنا نرى ما يراه هذا الرأي الأخير؛ فذلك لأنه يقف عند الحقيقة التكوينية للروبوتات التي لا تتطابق ونظرية الأداة؛ على اعتبار أن الأخيرة تتسم بالطابع الانقيادي لصاحبها، في حين أن الأولى تتسم بصفات تجعلها تتجاوز صفة الأداة؛ على اعتبار أنها تتأقلم مع محيطها الخارجي والاستفادة من التجارب الفارطة، وما تتسم به من محاكاة عقلية للبشر؛ كلها عوامل ترفع صفة الأداة عن الروبوت وتدفعنا للبحث عن تكييف آخر لهذا الكائن الروبو-بشري.
وفي نفس الاتجاه، سار الفقه الأمريكي الذي اعتبر نظرية تشبيه المركبات ذاتية القيادة بالمصاعد في، من أبرز الأطروحات المرجح اعتمادها من المحاكم الأمريكية في المستقبل القريب؛ نظرا لنقاط الاشتراك التي تجمع بين النوعين، فالمصاعد هي عبارة عن أنظمة ناقلة للأشخاص بشكل عمودي، يتم إطلاقها يدويا بالنقر على زر مخصص لهذا الغرض، بيد أن العملية تصبح أكثر تعقيدا وتأخذ طابعا أوتوماتيكيا أثناء عملية النقل، فضلا عن أن بعض المصاعد تسخر على أنظمة تشغيل ذكية “Intelligent flow system”، يتم فيها اختيار الطابق المقصود بصفة ذكية بناء على الاتجاه الذي يسلكه الراكب، بينما يقتصر دور هذا الأخير في نهاية الأمر بالضغط على الزر لإدراك الوجهة المقصودة[41].
مع الإشارة إلى أن الفقه الأمريكي كرس المفهوم الشيئي للأنظمة الذكاء الاصطناعي من خلال اعتباره أن الأحصنة تعد من أبرز الأمور التي يمكن الاعتماد عليها من لدن القضاء الأمريكي لتحديد الأساس القانوني للأضرار التي قد تترتب عن أعمال الروبوت الضارة؛ وذلك بتشبيه السيارات ذاتية القيادة بالخيول والأحصنة[42]، باعتبارها وسيلة النقل الأقدم التي تم اعتمادها عبر العصور في جل المجتمعات. وذلك، لأنه ثمة قاسم مشترك بين المركبات ذاتية القيادة والخيول؛ يتحدد في خاصية ” سوء التفاعل مع المحيط الخارجي”[43]. بحيث ذهب الفقه إلى قياس حادثة عرضت على القضاء تتلخص وقائعها في كون حصانا كان يسير على جانب الطريق، وعند استماعه لأصوات مرتفعة أصدرتها شاحنة كانت تسير بقربه، شعر بالخوف؛ الأمر الذي دفعه إلى الهروب ركضا في شوارع الطريق[44]، على قضية مماثلة تعرضت لها مركبة قيادة ذاتية تحمل علامة Tesla في ولاية فلوريدا، والتي عند مصادفتها لشاحنة بيضاء اللون تحت تأثير أشعة الشمس الساطعة، أثر على تقديرها للأمر؛ مما أدى إلى اصطدامها مباشرة بالشاحنة[45].
بيد أنه، وعلى الرغم من وجاهة التحليل الذي قام به الفقه الأمريكي، فإننا مع ذلك نخالفه الرأي في البعض مما أقر به أعلاه؛ ذلك أنه ثمة فوارق شاسعة بين الأحصنة والسيارات ذاتية القيادة، حيث إنه لئن كانت الأولى تتطلب عادة درجة أقل من العناية، فإن الثانية تتطلب قدرا أكثر من الاحتياط والتبصر والحيطة والحذر من الشخص العادي، كما أن الأضرار التي قد تترتب عن الأولى هي أكثر خطورة منه بالنسبة للأضرار التي من الممكن حصولها من الثانية؛ الأمر الذي يجعل من فرضية وصف السيارات ذاتية القيادة عموما، والروبوت على وجه الخصوص، بنظرية الخيول غير مبنية على أساس صحيح.
وأما الاتجاه الثاني، والذي يمثله غالبية الفقه الفرنسي[46] فذهب إلى أن المفاهيم التي جاءت بها المادة المومأ لها، لا يمكن مواءمتها بشكل جيد مع الكيانات الذكية والروبوت[47]. منتقدا بذلك أي ربط للذكاء الاصطناعي أو الروبوتات بالمفهوم الشيئي؛ مؤكدين أن الروبوت هو برمجية رقمية قادرة على التعلم واكتساب المهارات، ومن ثم التصرف باستقلالية ترتبط بالعالم الافتراضي لا الواقعي[48].
وهو نفس الموقف الذي وقفه Cédric COULON حينما ذهب إلى القول إن النظام الحالي للمسؤولية المدنية لحراسة الأشياء صمم بالأساس لتأطير حراسة الأشياء المادية، وهذا لا يتماشى والطبيعة غير المادية لأنظمة الذكاء الاصطناعي والروبوتات، وذلك حتى لو تم الاعتماد على الدعامة Hardware التي يحتوي عليها هذا النظام الذكي (الروبوت، الرقاقة La puce، الآلة) للاعتراف بطابعها المادي، بيد أن معيار الحراسة سيشكل إشكالا آخر يقف عائقا أمام إعمال نظام المسؤولية المدنية الشيئية[49].
ولعل، ما حدى بالاتجاه الأخير إلى القول إن مفهوم الشيء لا ينطبق على أنظمة الذكاء الاصطناعي والروبوتات، هو أنه لئن كان مفهوم الشيء غير الحي ينطبق على الروبوت، فإن مفهوم الجمود وعدم القدرة على الحركة لا ينطبق عليه؛ ذلك أن الآلية التي يعمل بها حامل الذكاء الاصطناعي والروبوت أو الرجل الآلي، تجعله يخرج عن إطار الجمود إلى الحركة.
ونحن، إذ نميل إلى الاتجاه الفقهي الثاني، فذلك راجع لأن الروبوت يتمايز عن مفهوم الشيء غير الحي، من حيث عنصر الاستقلالية؛ إذ أن الأخيرة تشكل خصيصة يختص بها الروبوت عن المفهوم الشيئي من جهة، وكذا الآلة الأتوماتيكية من جهة ثانية؛ لذلك فإنه من غير المستساغ القول إن الروبوت يعد من ضمن مفهوم الأشياء لإخضاعه لحكم المادة المذكورة. غير أنه، إن كان الروبوت ذات الذكاء الاصطناعي لا يخرج عن نطاق الأشياء بحكم القانون، فإنه يخرج من هذا النطاق بحكم طبيعته؛ بحيث لا يعتبر الروبوت شيئا ما دام أنه يمزج بين الخواص الشيئية والخواص البشرية؛ أي الروبو-بشرية. أما الأولى، فإنها تتحدد في كون الروبوت هو عبارة عن مجموعة من المواد التي تدخل في أصلها ضمن مفهوم الأشياء. وأما الثانية، فإنها تتجسد في كون الروبوت يتصف ببعض مقومات البشر؛ مثل: التفكير الذاتي، الذكاء، الحركة، التقليد، التحليل، الكلام… وهي أمور تبعد صفة الشيء عن الروبوت وتجعله يخرج عن نطاق مفهوم الشيء المقصود من النصوص التشريعية المومأ لها. وعلى هذا، فإنه لا يسوغ اعتبار الروبوت شيئا يخضع لما تخضع له الأشياء من أحكام المسؤولية المدنية الخاصة بها، وإنما الأمر يتطلب البحث عن أساس آخر يتماشى وطبيعته التكوينية المزدوجة.
وأما بخصوص واقعة الحراسة، فإنه لئن كانت الحراسة أحد أهم عناصر قيام مسؤولية حارس الأشياء، فإن جهود الفقه في تحديد مدلول الحراسة قد اختلفت بين فكرتين أو نظريتين تعطي كل واحدة منها مدلولا مغايرا للآخر؛ أما النظرية الأولى، تسمى بنظرية الحراسة القانونية la garde juridique، ويقصد بها السيطرة القانونية من قبل الشخص الذي يخوله القانون حق إدارة الشيء واستخدامه ومراقبته، وتستمد هذه السلطة القانونية من الحق الذي يكون لهذا الشخص على الشيء، سواء أكان ذلك الحق عينيا أم شخصيا، وسواء أكان العقد مصدرا لهذا الحق أو القانون، فوجود هذه السلطة القانونية تكفي لثبوت الحراسة فلا ترتبط مباشرتها بالفعل . وأما النظرية الثانية، فتسمى بنظرية الحراسة المادية أو الفعلية la garde matérielle، ومقتضى الحراسة بموجب هذه النظرية هي السيطرة الفعلية على الشيء سواء استندت هذه السيطرة إلى حق مشروع أم لم تستند، فالحارس هو من تتوافر له السلطات الثلاث من استعمال، رقابة وتوجيه l’usage et direction et contrôle، ويباشرها بصفة مستقلة، وهذا هو العنصر المادي Élément matérielle للحراسة، ويجب كذلك أن يباشر هذه السلطة لحسابه الخاص؛ أي بقصد تحقيق مصلحة شخصية، وهذا هو العنصر المعنوي Élément morale لها، بمعنى أن صفة الحراسة لا تتوافر إذا كان الشخص يستعمل الشيء لمصلحة غيره ولحسابه[50].
وإذا كان ما تقرر أعلاه ينطبق على الأشياء، فهل ينطبق أيضا على أنظمة الذكاء الاصطناعي وأنظمة الروبوتات؟
ذهب الأستاذ Cédric COULON–إجابة عن السؤال السابق الذكر-إلى أن معيار حراسة الأشياء الذي يقوم عليه نظام المسؤولية الشيئية، لا يصلح إعماله بصدد الأنظمة الذكية؛ لأن مناط مسؤولية الحارس هو وجود سلطة الاستعمال، التوجيه والرقابة، وهو الذي لا يتوافق والوظيفة التي أنشأ من أجلها نظام الذكاء الاصطناعي والروبوتات؛ ألا وهي خدمة الإنسان بتحريره من عبء رقابة الأشياء التي تقع عليه في الأصل[51].
كما، ذهب الأستاذ Michel Vivant إلى أن القواعد العامة الناظمة للمسؤولية عن فعل الأشياء، لا تتلاءم والأضرار الناجمة عن السيارات ذاتية القيادة؛ على اعتبار أن الأخيرة أنشأت لأجل منح مستخدميها حرية عدم الانشغال بقيادتها وتوجيهها، بل عليهم فقط اختيار الوجهة المقصودة؛ إذ أنه والحالة هذه يصعب الاعتراف للسائق بسلطات الحارس لعدم توفره على سلطات الاستعمال، التوجيه والمراقبة[52].
وفي هذا الاتجاه، ذهب الأستاذ Jean-Sébastien BORGHETTI [53]إلى أنه من الأجدر الكلام في السيارات الذكية عن اختفاء الحراسة وليس انتقالها؛ لأن الغرض من تطوير أنظمة القيادة الذكية، هو قبول الراكب واستعداده لتفويض رقابة هذه السيارة بالكامل إلى النظام الذكي؛ ومن ثم عد الذكاء الاصطناعي والروبوت من الأشياء التي تفلت من سيطرة الإنسان بطبيعتها، وهو الأمر الذي يجعل تطبيق نظام المسؤولية المدنية لحارس الأشياء صعبة التطبيق على الروبوتات[54].
وكذلك، ذهب أحد الباحثين إلى أنه لما كان مناط الحراسة يتحدد بمقدار السيطرة والتسلط على الشيء محل الاستخدام، فإن تطبيق نظرية الحراسة التي تعود إلى عقود خلت لا يستقيم وواقع الأجيال المتقدمة من برامج الذكاء الاصطناعي، والتي تتميز بالاستقلالية والقدرة على التعلم الذاتي؛ الأمر الذي قد يحول دون إمكانية التنبؤ بتصرفاتها أو إخضاعها للسيطرة والتوجيه التام الذي نحتاج إليه لإعمال تلك النظرية[55].
وهو الذي ذهب إليه أحد الباحثين[56]، بالقول إننا أمام مفهومين غير متناظرين؛ فالاستقلالية التي يتمتع بها محرك الذكاء الاصطناعي، تتنافى ومفهوم الرقابة الذي يتمتع به الحارس، والذي تقوم على أساسه مسؤوليته المدنية عن فعل هذا الشيء. فطالما أن الشيء له خياراته المستقلة بمعزل عن حارسه المفترض، فإن مسؤولية الحارس تكون قائمة ومفترضة في هذه الحالة، لكن هذه المسؤولية تصبح موضع نظر حينما يتمتع هذا الشيء بقدر من الاستقلالية في اتخاذ القرارات[57].
أما عندنا، فنضم صوتنا إلى الآراء السابقة؛ معتبرين أن العنصر الذي يشكل مناط قيام المسؤولية المدنية الشيئية؛ والمتمثل في الحراسة la garde لا يتوافق وطبيعة العلاقة الناشئة بين الإنسان والآلة؛ ذلك لأن الأخيرة أضحت تتمتع بمكنة الاستقلال والانفراد في القيام بأعمالها، وأصبحت تغني الإنسان عن الوظيفة الرقابية المقررة له في تعامله مع الأشياء؛ وهو الأمر الذي فتح المجال لطرح تساؤل آخر وهو لئن كان الروبوت يتمتع بقسط من الاستقلالية عن مستخدمه، فهل يمكن تحميله المسؤولية الكاملة عن الأضرار التي تترتب نتيجة أفعاله الضارة؟
لقد انقسم الفقه في مسألة الاستقلالية في عمل الروبوت، إلى اتجاهين اثنين:
أما الأول، فإنه يذهب إلى تحلل حارس الروبوت أو الذكاء الاصطناعي من المسؤولية تحللا كاملا؛ اسنادا إلى وصف عملهما-الروبوت والذكاء الاصطناعي-بالقوة القاهرة التي تشكل سببا من أسباب انتفاء المسؤولية المدنية لوجود عارض من عوارض العلاقة السببية باعتبارها عنصرا جوهريا لقيامها. حيث يؤكد بأنه في اللحظة التي ينشأ فيها هذا الذكاء الاصطناعي يصير مستقلا بذاته عن جميع المتعاملين معه؛ مما يتعين معه تحميل الروبوت المسؤولية بذاته. معتبرا أيضا أن مفهوم الاستقلالية للذكاء الاصطناعي، إنما يطرح من وجهتين رئيسيتين: إحداهما معلنة تتحدد في القرار المتخذ، وثانيهما خفية تتمثل في آلية الوصول لهذا القرار. وبما أن القرار أتى مستقلا وغير متوقع، فإن الآليات الإجرائية للوصول إلى هذا القرار، إنما تتبع ذات الصفة؛ ومن ثم، فإن هذه القدرة على الانتقائية في القرار التي تصل إلى حد عدم التوقع من قبل الإنسان تجعل قرارات الذكاء الاصطناعي والروبوت غير متوقعة بالنسبة للإنسان، ولا يمكن دفعها من قبله؛ مما يتحقق معه شروط قيام واقعة القوة القاهرة؛ وبالتالي إعفاء الإنسان من مسؤولية الروبوت[58].
وأما الثاني، فإنه يذهب إلى رفض فكرة تحلل حارس الروبوت أو الذكاء الاصطناعي من المسؤولية تحللا كاملا بالاستناد إلى نظرية القوة القاهرة؛ ذلك لأن الذكاء الاصطناعي أو الروبوت قائم بطبيعته على عدم التوقع، فسماته الأساسية في ضوء طبيعته والبرمجيات التي يعتمد عليها هي “عدم التوقع ” [59]. بالإضافة إلى أنه عندما يوضع برنامج معين في إطار الذكاء الاصطناعي المعتمد على التعليم بالتتابع، فمن المتعين وضع هذه البرامج تحت التجربة، وعلى فترة زمنية معقولة من البحث في آثاره الجانبية؛ قصد تحديد مدى كفاءته وصحته وعندئذ يمكن اعتماده، فضلا عن أن فكرة عدم التوقع التي استدل بها الفريق الأول كأحد الأسباب المعفية من المسؤولية، تقتضي الطبيعة الاستثنائية الوقتية وليس الدائمة[60].
وعندي، إن هذا الموقف الأخير هو الأقرب إلى الصواب؛ ذلك لأن الذكاء الاصطناعي والروبوت حتى وإن حاز بعض الاستقلالية، غير أن المسؤولية المدنية تظل قائمة في مواجهة صاحبه؛ على اعتبار أن عنصر الاستقلالية يشكل جزءا من وظيفة الروبوت، إذ أنه يعمل ضمن احتمالية مستقبلية مفادها إمكانية إحداثه ضررا وقبوله بهذه المخاطر؛ لذلك، لا يمكن التصريح بأن الرقابة قد انتقلت إلى الروبوت كي يتحلل صاحبه من المسؤولية بما أنه يعمل وفق برمجية صاحبه وقدرته الذاتية على الاختيار ضمن خيارات متوقعة اصطناعيا، وغير متوقعة إنسانيا. بيد أن، المسؤولية التي تقع على عاتق صاحبه هذه المرة، ليست تلك القائمة على الأضرار التي تحدثها الأشياء التي في عهدته؛ وإنما مسؤولية من طبيعة خاصة سيأتي معنا ذكرها في الفصل الثاني من هذا البحث.
فبعد أن ثبت عدم ملائمة المسؤولية المدنية لحراسة الأشياء مع الطبيعة التكوينية للروبوتات، لا من حيث اعتبارها شيئا ولا من حيث خضوعها لمعيار الحراسة، فهل يمكن إعمال المسؤولية المدنية للمنتج عن منتجاته المعيبة؟
الفقرة الثالثة: حدود نظام المسؤولية الموضوعية عن فعل المنتجات
إن ما يسترعي الاهتمام في هذا المقام، هو المعهد البرلماني الفرنسي للتقييم العلمي والتكنولوجي بموجب تقريره الصادر بتاريخ 15 مارس 2017، والذي اعتبر من خلاله أن المنظومة القانونية الأقرب حاليا لتأطير الأضرار الناجمة عن الذكاء الاصطناعي والروبوتات، تتحدد في قواعد المسؤولية المدنية عن فعل المنتجات المعيبة، وأن عبء تعويض هذه الأضرار يقع-حسب الحالة-على إما مصمم نظام التحليل الذكي، أو على مصنع الروبوت، أو في حالات استثنائية على المالك أو المستعمل[61]. وهو نفس الموقف الذي وقفته اللجنة الاقتصادية والاجتماعية الأوروبية، في تقريرها الصادر بتاريخ 31 ماي 2017، وان كان بشكل أقل وضوحا من نظيره المعهد البرلماني الفرنسي للتقييم العلمي والتكنولوجي السابق الذكر[62].
وتأسيسا عليه، ذهب بعض الفقه الفرنسي إلى تبني موقف المعهد البرلماني الفرنسي للتقييم العلمي والتكنولوجي، حينما تم الإشارة إلى أن نظام المسؤولية عن فعل المنتجات المعيبة المدرج مؤخرا في المواد الجديدة 1245 مكرر 16 مرة تحت عنوان La responsabilité du fait des produits défectueux تبقى هي الإطار القانوني الأكثر ملاءمة منه بالنسبة لنظام المسؤولية عن فعل الأشياء؛ باعتباره الاسهل للمضرور لأنه يلقي بعبء تعويض الأضرار مباشرة على المنتج الذي عرض المنتوج في السوق. كما اعتبر هو الحل الأكثر تماشيا وهذه المرحلة الانتقالية لتأطير المسؤولية الناجمة عن أضرار الذكاء الاصطناعي[63].
ذلك أنه، ثمة من ذهب إلى قيام مسؤولية الشركة المصنعة عن الاضرار التي يسببها الروبوت، يتطلب قيام ثلاثة عناصر أساسية: عنصر العيب défectueux Élément، عنصر الضررdommage Élément، وعنصر العلاقة السببية le lien de causalité. أما عن عنصر وجود العيب في الروبوت، فقد حددت المادة 6 من التوجيهة الأوروبية رقم 374/85، بتاريخ 25 يوليوز 1985 الخاص بالمسؤولية المدنية عن المنتجات المعيبة، والمادة 1245-3 من القانون المدني الفرنسي[64]، معنى واقعة العيب بالقول إنه: “يعد منتجا معيبا ان لم يكن من شأنه أن يوفر الأمان الذي يمكن للشخص أن يتوقعه بشكل مشروع”. وبذلك، فإن العيب يعد عنصرا أساس لقيام مسؤولية المنتج؛ ويتحقق العيب بحسب نص المادة أعلاه عندما لا يوفر المنتج ولا يحقق الغرض الذي أعد له، ولا يلتزم المتضرر بإثبات خطورة المنتجات ولا خطأ المنتج، وإنما يطلب منه إثبات وجود الضرر وكذلك العيب. وأما عن عنصر الضرر الذي يحدثه الروبوت، فإن حصوله يعد أمرا لازما لقيامها وإمكانية المطالبة بالتعويض، فإذا لم يثبت حصول الضرر فلا محل للبحث في المسؤولية؛ لأن تلك المسؤولية تدور وجودا وعدما مع الضرر فلا مسؤولية بلا ضرر، وفي مجال المسؤولية عن المنتجات المعيبة يتم التعويض عن كافة الأضرار التي تصيب الأشخاص أو الأموال عدا المنتج المعيب، حيث جاء في نص المادة 1245-1 من القانون المدني الفرنسي أنه: “تنطبق أحكام هذا الباب على تعويض الضرر الناتج عن إصابة الشخص، وكذلك الأضرار التي تصيب الملكية عدا الأضرار التي تصيب السلعة نفسها، ومن دون تحديد سقف لمبلغ التعويض”[65]. وأما عن عنصر العلاقة السببية، فإنه على المتضرر بالإضافة إلى إثبات الضرر والعيب أن يثبت العلاقة السببية بينهما، حيث نصت المادة 1245-8 من القانون المدني الفرنسي[66] على أنه: “على الشخص المتضرر إثبات الضرر والعيب والعلاقة السببية بين العيب والضرر.”
وحسب هذا الرأي، فإنه إذا توافرت العناصر المشار إليها أعلاه، يمكننا اعتبار الضرر الذي يسببه الروبوت هو نتيجة عدم قيام المنتج (الشركة المصنعة أو المبرمجة أو المصممة) بتوفير تدابير السلامة والأمان للسيطرة على استقلال الروبوت، إلا أن الملاحظ في هذا الرأي أنه تراجع عن موقفه المبدئي، حينما اعتبر أنه لا يمكن أن تكون أحكام مسؤولية المنتج عن المنتجات المعيبة كافية في ضوء ازدياد الاستقلالية للروبوت والقدرة على التعلم؛ مما يعني أن المنتجين سيفقدون السيطرة على الروبوتات، ولهذا السبب قد لا تكون مسؤولية المنتجين كافية في أي حال من الأحوال لتعويض الأضرار الناجمة عن الروبوتات ذاتية التحكم[67].
ولعمري، إن ما خلص إليه الباحث في الأخير من أن نظام المسؤولية المدنية للمنتجات المعيبة لا تتوافق وطبيعة الروبوت التكوينية، لهو الأقرب إلى الصواب منه بالنسبة لآراء من قبله؛ ذلك لأن الأضرار التي قد تترتب على أعمال الروبوت قد لا يكون منبعها تقصير في مرحلة الإنتاج، وإنما يكون منبعه الاستقلالية التي يتمتع بها هذا الكائن المزدوج البنية التكوينية الروبو-بشرية، والقدرة على التعلم والاستفادة من التجارب؛ وهو الأمر الذي أدى إلى بروز رأي فقهي آخر نرى بصوابية مخرجاته. فما هو إذا هذا الاتجاه؟
وبحسب ما ذكر، اعتبر الأستاذ Ugo Pagallo إلى أنه إذا معنا النظر في مضمون النظرية القائلة بإمكانية تحميل مصنعي الأنظمة الذكية، مسؤولية تعويض الأضرار التي تفضي إليها هذه التقنيات، يظهر وبجلاء أنه يتعذر في الكثير من الأحيان إعمال قواعد مسؤولية المنتج بصدد أضرار أنظمة الذكاء الاصطناعي والروبوتات؛ لأنهم عبارة عن أنظمة لها القدرة على التعلم الذاتي، تتعلم من خبرتها، ويمكنها اتخاذ قرارات مستقلة. وبالتالي، يصعب على المضرور في ظل هذا التعقيد إثبات وجود عيب أو خلل في منتوج الذكاء الاصطناعي، كما يصعب عليه إثبات شرط قدم العيب؛ أي أن العيب كان موجودا لحظة خروج النظام الذكي أو الروبوت من أيدي مصنعيه أو مطوريه[68].
وكذلك، ذهب أحد الباحثين إلى أنه وبتحليل مدى توافق المفاهيم التي يقوم عليها نظام المسؤولية عن فعل المنتجات، مع طبيعة الأضرار التي ترتبها الأنظمة الذكية، نجد أن هندسة هذا النظام لا تليق بهذه الأضرار، وأن الواقع يثير بعض الصعوبات والإشكالات والتي من أهمها: إشكالية تكييفا الروبوت على أنه منتوج، وإشكالية صعوبة إثبات العيب في الروبوتات[69].
أما بالنسبة للإشكال الأول، فإنه يصعب اعتبار الروبوت منتوجا وفقا للمعنى الوارد في المادة 1245-2 من القانون المدني الفرنسي، التي عرفت المنتوج بأنه “مال منقول”[70]. ليطرح السؤال حول مدى انطباق صفة المنتوج على الروبوتات؟ حيث لاحظ أغلب الفقه الفرنسي وحتى الأوروبي أن نظام المسؤولية الناتجة عن المنتجات لم يصمم في الأصل لتأطير الأموال غير المادية، وإلا فما المراد بالمادة الأولية في هذه الأشياء أو الجزء المدمج فيها؟ وهل يصلح الكلام عن صانع هذه الأشياء أو مستوردها؟ وحتى إذا سلمنا بفرضية اعتبار الأنظمة الذكية الذاتية منتوجا، بالاعتداد بالدعامة المادية التي يدمج فيها النظام الذكي (الروبوت، الآلة والشريحة)، فتطرح إشكالية إثبات العيب في المنتوج .[71]
وأما بالنسبة للإشكال الثاني، فإنه ثمة صعوبة أخرى تتجلى في إثبات العيب في الروبوتات بالنظر لعنصر التعقيد فيها، فنكون هنا أمام صعوبة إثبات الفعل المرتب للمسؤولية، أو بالأحرى السبب الفني الذي يثير المسؤولية؛ والمتمثل في انعدام أمن المنتوج المشغل بالذكاء الاصطناعي، ويتم ذلك بمقارنته مع منتجات أخرى مماثلة من نفس الصنف، أو بإثبات السبب الفني أو التقني لهذا الخلل، بيد أن تعقيد أنظمة الروبوتات غالبا ما تقف عقبة في وجه المضرور[72].
لذلك، نجد أن القضاء الأمريكي أكد هذا الأمر في قضية Bryn Mawr vs. Mracek [73]التي قضى فيها بأن تقرير الخبرة الطبية لم يكن كافيا لإقرار مسؤولية نظام الجراحة الذكية لدرجة مساءلته مدنيا عن الأضرار اللاحقة بالمريض، على الرغم من أن نظام دافينشي نظام الجراحة الذكية، أصدر أثناء العملية رسائل خطأ وتوقف عن أخذ الأوامر من المشغل البشري؛ معتبرا أن الأهم في قضية الحال ليس مجرد إثبات العلاقة السببية بين سلوك الروبوت والضرر الذي تعرض له المريض؛ وإنما يجب فوف هذا تقديم شهادة الخبرة التي تقيم الدليل على أن نظام الجراحة الذكية قد شابه خلل وظيفي أثناء قيام العملية الجراحية؛ علما أن المريض تمسك بالرسائل التي أصدرها الجهاز أثناء العملية والتي اعتبرها كافية لإثبات العطب، ومن ثم، رفضت المحكمة حجته المقدمة[74].
ومن وجهتنا، فإننا نميل لما قرره الاتجاه الثاني من تحليل يتماشى وما يتسم به نظام الروبوت من خصائص وسمات تجعل له ذاتيته الخاصة وتميزه عن مفهوم الشيء، كما تميزه عن مفهوم المنتوج من حيث طبيعة المسؤولية المدنية المترتبة على أعماله الضارة، أما إذا خرجنا عن سياق المسؤولية المدنية، فإنه لا يعدو أن يكون إلا منتوجا يعرض في الأسواق لاقتنائه من الجمهور، ولكن، ذلك إن تحقق فإنه يكون بحسب الغاية من إنشائه، لا بحسب الوظيفة؛ لأن الروبوت كما أعتقد-والباطن لله- له وظيفة تختلف تمام الاختلاف عن غيره من المنتجات الأخرى؛ ذلك لتمتعه بعنصري الاستقلال والقدرة على التعلم الذاتي، وإن هذا لعمري عنصر أساس لنفي فكرة إعمال نظام المسؤولية المدنية عن المنتجات المعيبة عما يصدر عنه من أعمال ضارة.
وهذا، ما أكده القانون المدني الأوروبي الخاص بالروبوتات، حينما اعتبر أن الإطار القانوني الحالي بشأن المسؤولية عن المنتج، والذي بموجبه تكون الشركة المصنعة للمنتوج الذكي مسؤولة في حالة حدوث خلل يحدث خلال مرحلة تصنيع الروبوت[75]؛ حيث إنه حصر إعمال المسؤولية المدنية للمنتج في حالة واحدة وهي التي يكون فيها الروبوت الذكي قد أحدث ضررا للغير بسبب خلل يرتبط بمرحلة تصنيعه، لا بمرحلة تشغيله واكتسابه للمعارف والتجارب أو بتدخل أحد من الأغيار الذي يغير برمجته.
ونتيجة لذلك، اعتبر القانون المدني الأوروبي الخاص بالروبوت أنه فيما يتعلق بالمسؤولية غير التعاقدية، فإن التوجيه 85/374 / EEC [76]يغطي فقط الضرر الناجم عن عيوب التصنيع في الروبوت، بشرط أيضًا أن يتمكن الضحية من تقديم دليل على الضرر الفعلي، عيب المنتج والعلاقة السببية بين الضرر والعيب، وبالتالي قد لا يكون الإطار القائم على المسؤولية الموضوعية أو المسؤولية بدون خطأ كافياً[77]. واعتبر أيضا أنه وبغض النظر عن نطاق التوجيه 85/374 / EEC، فإن الإطار القانوني المعمول به حاليًا لن يكون كافيًا لتغطية الضرر الناجم عن الجيل الجديد من الروبوتات، حيث يمكن تجهيزه بـ التكيف والتعلم مما يؤدي إلى درجة معينة من عدم القدرة على التنبؤ في سلوكهم، حيث إن هذه الروبوتات ستتعلم بشكل مستقل من تجاربها، والتي تختلف من شخص إلى آخر، وتتفاعل مع بيئتها بطريقة فريدة وغير متوقعة[78].
وتأسيسا على ما تقدم أعلاه، فإنه من البد إيجاد آلية لإسناد المسؤولية للجهة المسؤولة عن أعمال الروبوت الضارة، بشكل يرسي التوازن بين جهات التصميم، الإنتاج والاستخدام والتشغيل لأنظمة الروبوتات، ويأخذ بعين الاعتبار درجة التطور التي وصلت إليها تقنية الذكاء الاصطناعي، فليس من المنطقي التعامل مع هذه التقنية بذات الأسلوب الذي يتم فيه التعامل مع الأشياء والأدوات الصماء، كما أنه ليس من المعقول إلقاء كامل المسؤولية على كاهل المستخدم أو الشركات المنتجة لهذه التقنية؛ لأن من شأن ذلك أن يدفع هذه الأطراف إلى الإحجام عن استخدام أو تطوير تقنية الذكاء الاصطناعي ومن ثم حرمان المجتمع من فوائدها الجمة.
لكن، وعلى الرغم مما تقدم، فإنه وريثما يتم إيجاد نظم خاصة بالمسؤولية المدنية للإنسان الآلي من لدن المشرع المغربي، فإن القضاء هو الجهة التي ستتحمل كل هذا الثقل؛ وذلك راجع إلى كونه ملزم بالفصل في كل قضية تعرض على أنظاره تحت طائلة إنكار العدالة؛ بحيث يتطلب الأمر منا إعطاء حلول آنية لما قد يطرح أمام القضاء من طلبات رامية إلى التعويض عن أعمال الروبوت الضارة.
لذلك، وفي ظل هذه الوضعية القانونية الحالية، على القضاء إعمال دوره الإنشائي؛ وذلك بالاستناد إلى قواعد الاجتهاد؛ عملا بالقاعدة الفقهية القاضية بأنه “لا اجتهاد في مورد النص” بحيث إن المفهوم المخالف للعبارة، يعني جواز الاجتهاد في حال غياب نص تشريعي ينظم المسألة المعروضة على القضاء، وبما أن للاجتهاد ضوابط تتحدد في الاعتماد على حكمة التشريع، قواعد العدالة والإنصاف وكذا القياس والقواعد الفقهية. فإنه يسوغ للقاضي أن يستند إلى القواعد الفقهية الكبرى من قبيل: “الضرر يزال” وقاعدة “لا ضرر ولا ضرار”، فضلا عن قاعدة “إذ الغنم بالغرم” وقاعدة “المفرط أولى بالخسارة”؛ وذلك لأن عموم هذه القواعد الفقهية يجعلها قابلة للتطبيق في أي زمان ومكان، وفي مواجهة أي شخص طبيعيا كان، اعتباريا أم إنسانا آليا، كما يسوغ للقاضي إعمال حكمة التشريع؛ إذ أن الحكمة من إنشاء نظام للمسؤولية المدنية هي جبر الأضرار عن طريق التعويض وضمان عدم الإضرار بالأغيار؛ فلذلك للقاضي أن يقضي بتعويض الطرف المضرور من أعمال الروبوتات استنادا إلى الغاية المومأ لها.
كما، يجوز للقاضي أيضا أن يرتكن إلى ضابط القياس؛ بأن ينزل الحكم التشريعي للأضرار المترتبة عن عمل الأشياء على تلك المترتبة عن عمل الروبوتات؛ لاتحاد العلة وهي حماية المتضرر مما يستعمله الأغيار من أدوات سواء كانت جامدة أم متحركة، ويمكن للقاضي كذلك أن يسقط الحكم التشريعي لفعل المنتج المعيب على فعل الروبوت المعيب في الحالة التي يكون السبب في فعل الروبوت الضار راجعا إلى مرحلة التصنيع؛ وذلك لاتحاد العلة المتمثلة في حماية المتضررين من العيوب التي تشوب المنتجات عادية كانت أم ذكية.
وعليه، يكون القضاء في ظل البيئة التشريعية الحالية أمام خيار وحيد وهو الاجتهاد المضبوط بقواعد؛ تتمثل أحيانا في حكمة التشريع، وأحيانا ثانية في القواعد الفقهية، وأحيانا ثالثة في قواعد العدالة والإنصاف، وأحيانا رابعة في قاعدة القياس؛ من خلال إعمال نظام المسؤولية المدنية لحارس الأشياء، ونظام المسؤولية المدنية للمنتج عن المنتجات المعيبة. بيد أن، هذه الحلول المؤقتة لا تكفي مقارنة مع التطور السريع لأنظمة الذكاء الاصطناعي وأنظمة الروبوتات؛ وإنما الأمر يتطلب البحث عن آليات ونظم جديدة للمسؤولية المدنية للإنسان الآلي تتلاءم والطبيعة التكوينية المنفردة لهذا الكائن الجديد.
خاتمة
تناول هذا البحث قضية تحديد طبيعة المسؤولية التقصيرية للروبوت الذكي، مبرزا أهم الإشكالات القانونية التي عرفها هذا الكائن الجديد، مجيبا على أسئلة قانونية جدلية قوامها مدى استجابة المنظومة القانونية الحالية لخصوصية الروبوت؛ حيث توصلنا من خلال ذلك إلى عدة استنتاجات ومقترحات نجملها فيما يلي:
النتائج
- المحدد الأساس لاكتساب الشخصية القانونية، ليس الأنسنة في حد ذاتها؛ وإنما هو القدرة على اكتساب الحقوق والتحمل بالالتزامات. لذلك، أصبحنا اليوم نتحدث عن الشخصية القانونية للأشخاص الاعتبارية؛ بل ثمة من الأنظمة القانونية الغربية التي اعترفت ببعض صفات الشخصية القانونية للحيوان؛ لتتعدى بذلك صفة الشخصية الوجود المادي للإنسان، الوجود المعنوي للأشخاص الاعتبارية وصولا إلى الكيان المادي لغير الإنسان كما هو حال الحيوان؛
- ذهب القانون المدني الأوروبي الخاص بالروبوت إلى أن الروبوت سيتمتع بالشخصية الالكترونية في المستقبل عند ظهور الاجيال الجديدة منه ذات القدرة على التفكير والتعلم والتأقلم واتخاذ القرارات بشكل مستقل من دون أدنى تدخل من قبل الانسان. بالإضافة إلى أن المشرع الأوروبي قد تعامل مع الروبوت بوضع خاص؛ إذ ابتكر نظرية جديدة لأساس المسؤولية المدنية عن الاضرار التي يسببها الروبوت، ومؤدى ذلك أنه لم يعتبر الروبوت ضمن وصف الأشياء، ومن ثم فهو بدأ بالتأسيس لمنزلة الشخص الالكتروني الكامل الأهلية الذي سيتمتع بالجنسية والذمة المالية المستقلة، وبالتالي سيسأل الروبوت عن أفعاله مدنيا وجنائيا، وهذ ما كان في الماضي القريب ضرب من ضروب الخيال العلمي؛
- أنه بينما استخدم المشرع الأوروبي مصطلح الشخصية الالكترونية للروبوت تعبيرا على شخصيته القانونية، نجد أن المجلس الاقتصادي والاجتماعي الأوروبي قد استعمل مصطلح الشخص المنقاد، ليقيد من مصطلح الشخصية القانونية الالكترونية التي جاءت عامة. لكن، نجد أنه ثمة من الباحثين من ذهب إلى أن التسمية الأدق للشخصية التي قد يتم منحها للروبوت هي الشخصية الافتراضية؛ لأنها تمثل افتراضا قانونيا ناشئا عن ضرورات الواقع العملي، في حين أن تسمية الشخصية الالكترونية تقترب من المعنى التقني أكثر من القانوني من ناحية، وقد يتم منحها للأشخاص العاديين الذين يمارسون نشاطا اجتماعيا على الأنترنت دون أي تواصل اجتماعي حقيقي من ناحية أخرى؛
- ذهب القانون المدني الأوروبي الخاص بالروبوتات إلى أنه لا يمكن تحميل الروبوت المسؤولية المدنية التقصيرية شخصيا؛ وإنما يتحمل المسؤولية عن كل الأضرار الصادرة عن الروبوتات ذات الذكاء الاصطناعي الإنسان وحده النائب البشري. بحيث لو أحدث روبوتا ذات ذكاء اصطناعي ضررا بأحد الأغيار، فإن الأخير لا يسوغ له مسائلة الروبوت شخصيا؛ وإنما عليه أن يتقدم بدعواه في مواجهة صاحبه الإنسان للحصول على تعويض يجبر ما لحقه من أضرار جراء عمل الروبوت. ولعل السبب في ذلك هو غياب عنصر الإدراك والتمييز الذي يعد مناطا للمسؤولية المدنية الشخصية؛ حيث عبر ق.م.أ.ر على ذلك بأنه: “يجب أن يدرك المستخدمون أن أي روبوت يمكن أن يكون له حدود إدراكية وحدود معرفية وحدود تشغيل؛
- أن قيام المسؤولية المدنية الشخصية للإنسان الآلي أمر غير مستساغ لا من ناحية الصياغة التشريعية فقط؛ وإنما حتى من ناحية الحالة القانونية. إذ أن قيام مسؤولية الروبوت الشخصية يتطلب وجود ذمة مالية مستقلة عن صاحبه وأهلية الأداء التي تخوله التصرف في حقوقه، وهو ما لا يتوفر عند الروبوت حاليا؛ ومن ثم تظهر الحاجة إلى إيجاد نظام للمسؤولية المدنية للإنسان الآلي تراعى فيه خصوصيات هذا الكائن الجديد المزدوج الهيأة التكوينية الروبو-بشرية؛
- إن كان الروبوت ذات الذكاء الاصطناعي لا يخرج عن نطاق الأشياء بحكم القانون، فإنه يخرج من هذا النطاق بحكم طبيعته؛ بحيث لا يعتبر الروبوت شيئا ما دام أنه يمزج بين الخواص الشيئية والخواص البشرية؛ أي الروبو-بشرية. أما الأولى، فإنها تتحدد في كون الروبوت هو عبارة عن مجموعة من المواد التي تدخل في أصلها ضمن مفهوم الأشياء. وأما الثانية، فإنها تتجسد في كون الروبوت يتصف ببعض مقومات البشر؛ مثل: التفكير الذاتي، الذكاء، الحركة، التقليد، التحليل، الكلام… وهي أمور تبعد صفة الشيء عن الروبوت وتجعله يخرج عن نطاق مفهوم الشيء المقصود من النصوص التشريعية المومأ لها؛
- إن اعتبار الروبوت في ضوء أحكام قانون المسؤولية المدنية الحالي بحكم الأشياء، يعد أمرا فيه نظر؛ فجميع خصائص الشيء العامة المتمثلة في الطبيعة المادية، الجامدة وغير الحية لا يمكن إطلاقها على الذكاء الاصطناعي، كما أن خاصية الانقياد الأعمى المنعدم التفكير لا تنطبق عليه، فضلا عن أن خاصية التبعية التامة التي يختص بها مفهوم الشيء والتي تتطلب حراسة من صاحبه، لا تنطبق تمام الانطباق على الروبوت؛
- أن محاولات الفقه الأمريكي لإيجاد أساس للمسؤولية المدنية للروبوت ذات الذكاء الاصطناعي؛ بالبحث في مدى إمكانية إسقاط أحكام المصاعد والأحصنة على الروبوت، لم تكلل بالنجاح، وظلت التكييفات المقدمة غير منطبقة على الخصائص التكوينية للروبوت ذات الذكاء الاصطناعي؛
- – لقد انقسم الفقه الأورو-فرنسي إلى اتجاهين: أما الأول فهو الممثل للمدرسة الكلاسيكية التي تعتبر الروبوت مجرد أداة مفضية للضرر من جهة، وأنه يدخل ضمن دائرة الأشياء من جهة ثانية. وأما الثاني، فقد ذهب إلى عدم انطباق خصائص الأداة أو الأشياء على ما يتميز به الروبوت من قدرة اتخاذ القرارات، ومكنة الاستقلالية والاستفادة من التجارب واكتساب الخبرات؛
- أن العنصر الذي يشكل مناط قيام المسؤولية المدنية الشيئية؛ والمتمثل في الحراسة la garde لا يتوافق وطبيعة العلاقة الناشئة بين الإنسان والآلة؛ ذلك لأن الأخيرة أضحت تتمتع بمكنة الاستقلال والانفراد في القيام بأعمالها، وأصبحت تغني الإنسان عن الوظيفة الرقابية المقررة له في تعامله مع الأشياء؛ وهو الأمر الذي فتح المجال واسعا لفرضية تحلل الروبوت من الحراسة؛
- الذكاء الاصطناعي والروبوت حتى وإن حاز بعض الاستقلالية، غير أن المسؤولية المدنية تظل قائمة في مواجهة صاحبه؛ على اعتبار أن عنصر الاستقلالية يشكل جزءا من وظيفة الروبوت، إذ أنه يعمل ضمن احتمالية مستقبلية مفادها إمكانية إحداثه ضررا وقبوله بهذه المخاطر؛ لذلك، لا يمكن التصريح بأن الرقابة قد انتقلت إلى الروبوت كي يتحلل صاحبه من المسؤولية بما أنه يعمل وفق برمجية صاحبه وقدرته الذاتية على الاختيار ضمن خيارات متوقعة اصطناعيا، وغير متوقعة إنسانيا. بيد أن، المسؤولية التي تقع على عاتق صاحبه هذه المرة، ليست تلك القائمة على الأضرار التي تحدثها الأشياء التي في عهدته؛ وإنما مسؤولية من طبيعة خاصة سيأتي معنا ذكرها في الفصل الثاني من هذا البحث؛
- اعتبر القانون المدني الأوروبي الخاص بالروبوتات أن الإطار القانوني الحالي بشأن المسؤولية عن المنتجات المعيبة، والذي بموجبه تكون الشركة المصنعة للمنتوج الذكي مسؤولة في حالة حدوث خلل يحدث خلال مرحلة تصنيع الروبوت؛ حيث إنه حصر إعمال المسؤولية المدنية للمنتج في حالة واحدة وهي التي يكون فيها الروبوت الذكي قد أحدث ضررا للغير بسبب خلل يرتبط بمرحلة تصنيعه، لا بمرحلة تشغيله واكتسابه للمعارف والتجارب أو بتدخل أحد من الأغيار الذي يغير برمجته؛
- المقترحات:
- من البد إيجاد آلية لإسناد المسؤولية بشكل يرسي التوازن بين جهات التصميم، الإنتاج والاستخدام والتشغيل لأنظمة الروبوتات، ويأخذ بعين الاعتبار درجة التطور التي وصلت إليها تقنية الذكاء الاصطناعي، فليس من المنطقي التعامل مع هذه التقنية بذات الأسلوب الذي يتم فيه التعامل مع الأشياء والأدوات الصماء، كما أنه ليس من المعقول إلقاء كامل المسؤولية على كاهل المستخدم أو الشركات المنتجة لهذه التقنية؛ لأن من شأن ذلك أن يدفع هذه الأطراف إلى الإحجام عن استخدام أو تطوير تقنية الذكاء الاصطناعي ومن ثم حرمان المجتمع من فوائدها الجمة؛
- وريثما يتم إيجاد نظم خاصة بالمسؤولية المدنية للإنسان الآلي من لدن المشرع المغربي، فإن القضاء هو الجهة التي ستتحمل كل هذا الثقل؛ وذلك راجع إلى كونه ملزم بالفصل في كل قضية تعرض على أنظاره تحت طائلة إنكار العدالة؛ بحيث يتطلب الأمر منا إعطاء حلول آنية لما قد يطرح أمام القضاء من طلبات رامية إلى التعويض عن أعمال الروبوت الضارة. لذلك، وفي ظل هذه الوضعية القانونية الحالية، على القضاء إعمال دوره الإنشائي؛ وذلك بالاستناد إلى قواعد الاجتهاد؛ عملا بالقاعدة الفقهية القاضية بأنه “لا اجتهاد في مورد النص” بحيث إن المفهوم المخالف للعبارة، يعني جواز الاجتهاد في حال غياب نص تشريعي ينظم المسألة المعروضة على القضاء. وبما أن للاجتهاد ضوابط تتحدد في الاعتماد على حكمة التشريع، قواعد العدالة والإنصاف وكذا القياس والقواعد الفقهية؛
- ندعو المشرع إلى سن قانون خاص بالذكاء الاصطناعي والروبوتات شريطة أن يلعب علماء الحاسوب دورا في صياغة نصوصه بالاشتراك مع ممثلين عن كافة القطاعات المعنية بتقنية الذكاء الاصطناعي وأنظمة الروبوتات كما أنه من الضروري أن تؤخذ المتطلبات القانونية والأخلاقية في الاعتبار أثناء عملية البرمجة والتطوير للتطبيقات الذكية وذلك للحد من خطورتها وضمان انسجامها مع هذه المتطلبات قبل طرحها في الأسواق؛
- ندعو المشرع المغربي بإصدار تشريع خاص يعالج كافة المسائل المتعلقة بالتكنولوجيا المتطورة ومن ضمنها الروبوتات ذات الذكاء الاصطناعي، ويجب أن يتضمن بصورة أساسية المبادئ الآتية :1-إقامة المسؤولية المدنية عن الأضرار التي تسببها هذه التكنولوجيا على أساس الخطأ المفترض في شخص النائب المسؤول عن الروبوتات تمهيدا لإقامتها على أساس عنصر الضرر في المستقبل بعد تطور التكنولوجيا ووصول الروبوت إلى مرحلة الاستقلال الذاتي في التفكير واتخاذ القرار؛2-إنشاء نظام تأمين إلزامي، حيث يكون على النائب البشري الحصول على بوليصة تأمين تغطي الأضرار المحتملة التي تسببها الروبوتات؛3-إنشاء صندوق ضمان خاصة بتعويض الأضرار المترتبة على أعمال الروبوتات الضارة، يشترك فيه جميع الفاعلين في مجال الذكاء الاصطناعي والروبوتات من شركات التصميم والتصنيع والشركات البائعة والداعمة لهذا النشاط، وحتى المستعملين المهنين لهذه الأنظمة كالأطباء، ذلك لأجل كفالة حصول المتضررين على التعويض خاصة في الحالات التي لا يكون فيها غطاء تأميني كافي؛4- إنشاء رقم تسجيل فردي، مسجل في سجل اتحاد معين، حتى تتمكن دائمًا من ربط الروبوت بالصندوق الذي يعتمد عليه؛ بحيث يمكن بموجب لأي شخص يتفاعل مع الروبوت معرفة طبيعة الصندوق، وحدود المسؤولية في حالة حدوث ضرر مادي، وأسماء ووظائف المساهمين وأي معلومات أخرى ذات صلة؛
- وضع مدونة السلوك الأخلاقي في مجال الروبوتات لتحديد ومراقبة ودعم المبادئ الأخلاقية الأساسية خلال مرحلتي التصميم والتطوير. ويجب أن تهدف هذه المدونة إلى ضمان الامتثال للمعايير الأخلاقية من قبل الباحثين والممارسين والمستخدمين والمصممين، وتسهم في إيجاد حلولا للمعضلات الأخلاقية وتمكن هذه الأنظمة من العمل بطريقة مسؤولة.
وبقي لنا الإشارة أخيرا، أنه وبعد ثبوت أوجه القصور التي أبانت عليها نظم المسؤولية المدنية الكلاسيكية في مجال الذكاء الاصطناعي، على وجه العموم، والروبوتات، على وجه الخصوص، بدأ التوجه يسير نحو ضرورة التفكير في ورشة إصلاح شاملة لقواعد المسؤولية المدنية المؤطرة لأعمال الروبوتات الضارة؛ وذلك من خلال التأسيس لنظم المسؤولية المدنية الخاصة بالروبوت. فإن التساؤل الذي تبقى الإجابة عنه مفتوحة لفرصة علمية أخرى، هو حول ما هي الطبيعة القانونية للمسؤولية التقصيرية للروبوت الذكي في ضوء القواعد الأوروبية المدنية الخاصة بالروبوت والصادرة عن البرلمان الأوروبي؟
الهوامش:
(*) تم تحكيم هذا المقال من طرف اللجنة العلمية لمركز مغرب القانون للدراسات والأبحاث القانونية
[1] ذلك أن الثورة الرقمية الذكية Digital smart revolution بمكوناتها الثلاثة الرئيسة: إنترنت الأشياء Internet of Things، والبيانات الضخمة Big data، إضافة إلى أنظمة الذكاء الاصطناعي والروبوتات intelligence Artificial Robotics And جعلت القانون يقف في كثير من المواضع، موقفا سلبيا أكثر منه الفاعل المتدخل؛ كما هو الشأن بالنسبة للحق، الشخصية، الملكية وصولا إلى نظام المسؤولية المدنية المترتبة عن الأعمال الضارة المحتمل صدورها من طرف الروبوتات.
محمد عرفان الخطيب: المسؤولية المدنية والذكاء الاصطناعي…إمكانية المساءلة؟ دراسة تحليلية معمقة لقواعد المسؤولية المدنية في القانون المدني الفرنسي، مقال منشور بمجلة كلية القانون الكويتية العالمية، السنة الثامنة، العدد التسلسلي 29، مارس 2020، ص: 108.
[2] عبد القادر العرعاري: مصادر الالتزامات، الكتاب الثاني: المسؤولية المدنية دراسة مقارنة على ضوء النصوص التشريعية الجديدة، المتعلقة بالمحاور التالية: المبادئ العامة للمسؤولية المدنية، نظام المسؤولية العقدية، نظام المسؤولية التقصيرية، المسؤولية عن حوادث السير، المسؤولية المدنية عن مخاطر المنتوجات المعيبة. مطبعة الأمنية-الرباط، الطبعة الخامسة، سنة 2016، ص:7.
[3] للمزيد من التعمق في هذه النقطة، يرجى الرجوع إلى:
-محمد العلمي: المسؤولية والتعويض عن حوادث السير بين حماية المضرور والمصالح الاقتصادية لمقاولات التأمين، أطروحة دكتوراه في القانون الخاص، كلية الحقوق بوجدة، السنة الجامعية 2012.
[4] عرف المعهد الأمريكي الروبوت بأنه: “مناول يدوي قابل لإعادة البرجمة ومتعدد الوظائف ومصمم لتحريك المواد والأجزاء والأدوات أو الأجهزة الخاصة من خلال مختلف الحركات المبرمجة؛ بهدف أداء مهمات متنوعة.” في حين عرفه الاتحاد الياباني للروبوتات الصناعية بأنه: “آلة لكل الأغراض وهي مزودة بأطراف وجهاز للذاكرة لأداء تتابع محدد مسبقا من الحركات وهي قادرة على الدوران والحلول محل العامل البشري بواسطة الأداء الأوتوماتيكي.
صفات سلامة وخليل ابوقورة: تحديات عصر الروبوتات وأخلاقياته، الطبعة الأولى، مركز الامارات للدراسات والبحوث الاستراتيجية، أبو ظبي، سنة 2014، ص: 12.
[5] الذكاء الاصطناعي هو أحد علوم الحاسب الآلي الذي يبحث عن أساليب متطورة لبرمجته للقيام بأعمال واستنتاجات تشابه -ولو في حدود ضيقة-تلك الأساليب التي تنسب إلى الانسان أو هو مجموعة من الأساليب والطرق الجديدة في برمجة الأنظمة المحاسبية والتي يمكن أن تستخدم لتطوير أنظمة تحاكي بعض عناصر ذكاء الإنسان وتسمح لها بالقيام بعمليات استنتاجيه عن حقائق وقوانين يتم تمثيلها في ذاكرة الحاسب.
-الكرار حبيب جهلول وحسام عبيس عودة: المسؤولية المدنية عن الاضرار التي يسببها الروبوت، مقال منشور بمجلة مجلة الطريق للتربية والعلوم الاجتماعية، العدد 6-5، سنة 2019، ص: 741.
[6] يقصد بالروبوت ذات الذكاء الاصطناعي تلك الآلة المبرمجة الكترونيا وفقا لتقنية الذكاء الاصطناعي لها القدرة على اتخاذ القرارات المناسبة في البيئات والظروف المختلفة. ومن أمثلة الروبوتات الحديثة نجد: السيارات ذاتية القيادة، الروبوتات الطبية التي تقوم بعمليات الجراحية الخطرة، والروبوتات الصناعية، وروبوتات العناية “التي قد منحت الأمل لمعاقي الحركة بالمشي مجددا، كما ظهر في اليابان روبوت المرور.
-الكرار حبيب جهلول وحسام عبيس عودة: المسؤولية المدنية عن الاضرار التي يسببها الروبوت، مرجع سابق، ص: 744.
[7] عماد عبد الرحيم الدحيات: نحو تنظيم قانوني للذكاء الاصطناعي في حياتنا، إشكالية العلاقة بين البشر والآلة، مقال منشور بمجلة الاجتهاد للدراسات القانونية والاقتصادية، المجلد 8، العدد 5، سنة 2019، ص: 1.
[8] Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) Disponible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html Vu sur17:18. (25/10/2020)
[9] وقد عرف القانون المدني الأوروبي الخاص بالروبوتات استقلالية الروبوت على أنها القدرة على اتخاذ القرارات ووضعها موضع التنفيذ في العالم الخارجي، بغض النظر عن أي سيطرة أو تأثير خارجي؛ فالاستقلالية ذات طبيعة تقنية بحتة وأن درجة الاستقلالية تعتمد على درجة تعقيد التفاعلات مع البيئة التي يتصورها برنامج الروبوت.
وجاء النص الحرفي للتعريف المذكور على النحو الآتي:
“considérant que l’autonomie d’un robot peut être définie comme la capacité à prendre des décisions et à les mettre en pratique dans le monde extérieur، indépendamment de tout contrôle ou influence extérieurs; que cette autonomie est de nature purement technique et que le degré d’autonomie dépend du degré de complexité des interactions avec l’environnement prévu par le programme du robot.”
Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) Disponible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html Vu sur17:18. (25/10/2020)
[10] ذلك أنه، ومنذ سنة 2015 قررت اللجنة الأوروبية للشؤون القانونية إنشاء فريق عمل يعنى بدراسة المسائل القانونية المرتبطة بتطوير الروبوتات والذكاء الاصطناعي في الاتحاد الأوروبي؛ سيما فيما له صلة بالقانون المدني. حيث عقد هذا الفريق عشرة اجتماعات بين مايو 2015 وسبتمبر 2016؛ من أجل أخذ مواقف العلماء والخبراء في المجالين التقني والقانوني. ففي سنة 2016 نشرت وحدة البحوث الاستشرافية في مركز الأبحاث الأوروبية دراسة استشرافية تتناول الجوانب الأخلاقية للقضايا ذات الصلة بالذكاء الاصطناعي والروبوتات، كما بينت موقفها من بعض الأسئلة القانونية التي يطرحها الروبوت ذات الذكاء الاصطناعي؛ لاسيما المركز القانوني للروبوت في المجتمع الأوروبي. وبحلول سنة 2017 تبنى البرلمان الأوروبي –بأغلبية 396، ومعارضة 123، وامتناع 85 من أعضائه-التقرير الصادر من لدن اللجنة الأوروبية للشؤون القانونية، والذي سمي استنادا إلى اسم النائبة البرلمانية Mady Delvaux التي أعددته مع الفريق المعين من لدن اللجنة المشار لها؛ وذلك تحت عنوان “القواعد الأوروبية في القانون المدني للروبوت règles de droit civil sur la robotique” .
وبالإضافة إلى القواعد الأوروبية في القانون المدني للروبوت règles de droit civil sur la robotique”، والذي جاء فيه مسائل تتعلق بالمبادئ العامة، المسؤولية، المبادئ العامة المتعلقة بتطوير الروبوتات والذكاء الاصطناعي للاستخدام المدني، البحث والابتكار، المبادئ الأخلاقية، الوكالة الأوروبية، حقوق الملكية الفكرية وتدفق البيانات، التوحيد والسلامة والأمن، وسائل النقل المستقلة (السيارات ذاتية القيادة والطائرات بدون طيار)، روبوتات العناية الشخصية، الروبوتات الطبية، إصلاح وتحسين الجسم البشري، التعليم والتوظيف، المسؤولية، الجوانب الدولية والاعتبارات النهائية . نجد ملحق القرار المتضمن للتوصيات المتعلقة بمحتوى الاقتراح المطلوب ANNEXE À LA RÉSOLUTION: RECOMMANDATIONS CONCERNANT LE CONTENU DE LA PROPOSITION DEMANDÉE، والذي جاء فيه توصيات تتعلق بتعريف وتصنيف الروبوتات الذكية، تسجيل الروبوتات الذكية، المسؤولية المدنية، حقوق الملكية الفكرية، ميثاق الروبوتات، المدونة الأخلاقية لمهندسي الروبوتات والمدونة الأخلاقية الخاصة بلجان أخلاقيات البحث.
[11] المرجع السابق: ص121.
[12] M. Gobert, Réflexions sur les sources du droit et les principes d’indisponibilité du corps humain et de l’état des personnes, RTD. civ. edition1992, p. 489.s
[13] محمد عرفان الخطيب: المركز القانوني للإنسآلة، الشخصية والمسؤولية –دراسة تأصيلية مقارنة-، مقال منشور بمجلة كلية القانون الكويتية العالمية، السنة السادسة، العدد 4، العدد التسلسلي 24، ربيع الأول-ربيع الثاني 1440ه-ديسمبر 2018، ص: 105.
[14] – Alain Bensoussan، Plaidoyer pour un droit des robots: de la «personne morale» à la personne robot»، La Lettre des juristes d’affaires، Edition 23 oct. 2013, n° 1134.
– Jean Carbonnier، Droit civil -Introduction -Les personnes -La famille -l’enfant. Le couple, PUF, Paris. 27e édition, 2004.
– Michelle Gobert, Réflexions sur les sources du droit et les.principes d’indisponibilité du corps humain et de l’état des personnes, RTD. civ Edition 1992, p. 489.s.
-Jean-Christophe -Galloux, Le corps humain dans le Code civil, In 1804-2004, Le .Code civil, Un passé, un présent, un avenir, Dalloz, Paris, Edition 2004, p. 381.
أشار إليهم، محمد عرفان الخطيب: المسؤولية المدنية والذكاء الاصطناعي. مرجع سابق، ص114.
[15] لأخذ فكرة معمقة حول هذه الفكرة، يرجى الرجوع إلى:
– Rapport sur le régime juridique de l’animal rédigé par Madame S. Antoine, remis au garde des Sceaux le 10 mai 2005, p, 23s.
– O. Dubos et J-P. Marguénaud, La protection internationale et européenne des animaux, Pouvoirs, vol. 131, no. 4, 2009, Pp. 113-126.
-F. Dupas, Le statut juridique de l’animal en France et dans les Etats membres de l’Union Européenne- Historique- Bases juridiques actuelles et conséquences pratiques, Thèse, 2005, Université Paul-Sabatier de Toulouse, p 87s.
أشار إليهم: محمد عرفان الخطيب، المسؤولية المدنية والذكاء الاصطناعي، مرجع سابق، ص: 106.
[16] الكرار حبيب جهلول وحسام عبيس عودة: المسؤولية المدنية عن الاضرار التي يسببها الروبوت، مرجع سابق، ص743.
[17] وتجدر الإشارة إلى أن، اللجنة الأوروبية للشؤون القانونية، قررت في سنة 2015، إنشاء فريق عمل يعنى بدراسة الجوانب القانونية المرتبطة بتطوير الروبوتات والذكاء الاصطناعي في الاتحاد الأوروبي، والذي أعد تقريرا سمي ب ” القواعد الأوروبية في القانون المدني للإنسان الآلي ” بحلول سنة 2017 تم عرضه على البرلمان الأوروبي عندها وتمت المصادقة عليه بنفس السنة. ومن بين مشتملات التقرير، نذكر: تحديد المركز القانوني للرويوتات، واقع الشخصية القانونية لها، وضع تعريف أوروبي مشترك لفئات الروبوتات الذكية والمستقلة، إقرار نظام تسجيل ” قيد اصطناعي ” للروبوتات الأكثر تطورا، وكذلك وضع آليات قانونية تنظم قواعد المسؤولية القانونية للروبوتات التي تعمل بالذكاء الاصطناعي في =حال الإضرار بالبشر؛ بما =فيها إمكانية الوصول إلى تحديد مسؤولية مختلف الأطراف الفاعلة في عمل الروبوتات، ووضع آليات العمل المشترك بين الروبوتات الذكية، وفي الأخير إقرار ميثاق أوروبي يضمن مختلف هذه النقاط.
[18] حيث جاء في هذا، نص القانون المدني الأوروبي الخاص بالروبوت الآتي:
“la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers; il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers.”
Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) Disponible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html Vu sur/2020/10/27.
[19] ” creating a specific legal status for robots in the long run, so that at least the most sophisticated autonomous robots could be established as having the status of electronic persons responsible for making good any damage they may cause, and possibly applying electronic personality to cases where robots make autonomous decisions or otherwise interact with third parties independently”.
[20] الكرار حبيب جهلول وحسام عبيس عودة: المسؤولية المدنية عن الاضرار التي يسببها الروبوت، مرجع سابق، ص745.
[21] محمد عرفان الخطيب: المسؤولية المدنية والذكاء الاصطناعي، مرجع سابق، ص: 109.
[22] همام القوصي: نظرية الشخصية الافتراضية للروبوت وفق المنهج الإنساني، دراسة تأصيلية تحليلية استشرافية في القانون المدني الكويتي والأوروبي، مقال منشور بمجلة جيل الأبحاث القانونية المعمقة، العدد 35، ص: 5.
[23] يقابل هذا الفصل باللغة العربية:
“Tout fait quelconque, de l’homme qui, sans l’autorité de la loi, cause sciemment et volontairement à autrui un dommage matériel ou moral, oblige son auteur à réparer ledit dommage, lorsqu’il est établi que ce fait en est la cause directe.Toute stipulation contraire est sans effet.”
بينما يقابل الفصل 77 من ق.ل.ع في القانون المدني الفرنسي بعد تعديل 2016، الفصل 1240 الذي جاء فيه أنه:
“Tout fait quelconque de l’homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer.”
[24] والذي يقابله باللغة الفرنسية:
Chacun est responsable du dommage moral ou matériel qu’il a causé, non seulement par son fait, mais par sa faute, lorsqu’il est établi que cette faute en est la cause directe.
بينما يقابل الفصل 78 من ق.ل.ع، في القانون المدني الفرنسي الفصل 1241 الذي جاء فيه أنه:
“Chacun est responsable du dommage qu’il a causé non seulement par son fait, mais encore par sa négligence ou par son imprudence.”
[25] تنص المادة 243 من القانون المدني الكويتي على أنه: «كل من يتولى حراسة شيء مما يتطلب عناية خاصة لمنع وقوع الضرر منه، يلتزم بتعويض الضرر الذي يحدثه هذا الشيء، ما لم يثبت أن هذا الضرر قد وقع بسبب أجنبي من قوة قاهرة، أو حادث فجائي، أو فعل المضرور أو فعل الغير. وتعتبر الأشياء التي تتطلب عناية خاصة لمنع وقوع الضرر منها السيارات والطائرات وغيرها من المركبات الأخرى والآلات الميكانيكية والسفن، والأسلحة، والأسلاك، والمعدات الكهربائية، والحيوانات، والمباني، وكل شيء آخر يكون بحسب طبيعته أو بحسب وضعه، مما يعرض للخطر.”
[26] همام القوصي: نظرية الشخصية الافتراضية للروبوت وفق المنهج الإنساني، دراسة تأصيلية تحليلية استشرافية في القانون المدني الكويتي والأوروبي، مقال منشور بمجلة جيل الأبحاث القانونية المعمقة، العدد 35، ص: 5.
[27] “Les organismes publics et privés de financement de la recherche dans le domaine de la robotique devraient demander la réalisation et la présentation d’une analyse des risques pour chaque proposition de financement de la recherche en la matière. Ce code devrait considérer que la responsabilité incombe à l’être humain et pas aux robots.”
Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) Disponible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html Vu sur28/10/2020 ،14:16.
[28]” Les utilisateurs devraient être conscients que tout robot peut comporter des limites de perception, des limites cognitives et des limites d’actionnement.”
Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) Disponible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html Vu sur/2020/10/29.
[29] “considérant qu’en vertu du cadre juridique actuel, les robots en tant que tels ne peuvent être tenus pour “responsables de leurs actes ou de leur inaction en cas de dommages causés à des tiers; que les règles en vigueur en matière de responsabilité couvrent les cas où la cause des actes ou de l’inaction du robot peut être attribuée à un acteur humain précis tels que le fabricant, l’opérateur, le propriétaire ou l’utilisateur et où cet acteur pourrait avoir prévu et évité le comportement dommageable du robot; considérant qu’en outre, les fabricants, les opérateurs, les propriétaires ou les utilisateurs pourraient être tenus comme objectivement responsables des actes ou de l’inaction d’un robot .”
Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) Disponible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html Vu sur/2020/10/29.
[30] وهو نفس ما ذهب إليه القانون المدني الأوروبي للروبوت؛ حينما نص على أنه:
“estime qu’en principe, une fois les parties responsables en dernier ressort identifiées, leur responsabilité devrait être proportionnelle au niveau réel d’instructions données au robot et à l’autonomie de celui-ci, de sorte que, plus un robot est autonome, plus sa capacité d’apprentissage est grande, et plus sa période de formation a été longue, plus grande devrait être la responsabilité de la personne qui l’a formé; relève notamment que, lorsqu’il s’agit de déterminer qui est la personne réellement responsable du comportement dommageable du robot, les compétences acquises par un robot au cours de sa formation ne devraient pas être confondues avec les compétences strictement dépendantes de sa capacité à apprendre de manière autonome; relève en outre que, du moins en l’état actuel des choses, la responsabilité doit être imputable à un humain et non au robot.”
Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) Disponible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html Vu sur/2020/10/29.
[31] لقد انقسمت التشريعات المدنية العربية إلى اتجاهين رئيسيين: اتجاه تشريعي موسع من لفظة الشيء، واتجاه تشريعي آخر يقيد من هذا اللفظ بتطلبه أن يكون الشيء مما يتطلب عناية خاصة.
أما بالنسبة للأول:
– بالرجوع إلى قانون الالتزامات والعقود المغربي، نجده ينص في فصله 88 على أنه: “كل شخص يسأل عن الضرر الحاصل من الأشياء التي في حراسته، إذا تبين أن هذه الأشياء هي السبب المباشر للضرر، وذلك ما لم يثبت: 1 -أنه فعل ما كان ضروريا لمنع الضرر؛ 2 -وأن الضرر يرجع إما لحادث فجائي، أو لقوة قاهرة، أو لخطأ المتضرر.”
– كما أنه وبالرجوع إلى القانون المدني الجزائري، نجده ينص في مادته 138 على أنه: “كل من يتولى حراسة شيء وكانت له قدرة الاستعمال والتسيير والرقابة، يعتبر مسؤولا عن الضرر الذي يحدثه ذلك الشيء. ويعفى من هذه المسؤولية الحارس للشيء إذا أثبت أن ذلك الضرر حدث بسبب لم يكن يتوقعه مثل عمل الضحية، أو عمل الغير، أو الحالة الطارئة، أو القوة القاهرة.”
-وفي ذات الصدد، نجد المادة 96 من المجلة التونسية للالتزامات والعقود تنص بأنه: “على كل إنسان ضمان الضرر الناشئ مما هو في حفظه إذا تبين أن سبب الضرر من نفس تلك الأشياء إلا إذا أثبت ما يأتي: أولا: أنه فعل كل ما يلزم لمنع الضرر. ثانيا: أن الضرر نشأ بسبب أمر طارئ أو قوة قاهرة أو بسبب من لحقه.”
-وفي نفس الإطار، تنص المادة 108 من القانون المدني الموريتاني على أن: “كل شخص يسأل عن الضرر الحاصل من الأشياء التي في حراسته إذا تبين أن هذه الأشياء هي السبب المباشر للضرر، وذلك ما لم يثبت: ١ أنه فعل ما كان ضروريا لمنع الضرر؛٢ أن الضرر يرجع إما لحادث فجائي، أو قوة قاهرة أو لخطأ المتضرر.”
-وفي ذات الاتجاه، نجد قانون المعاملات المدنية السوداني ينص في مادته 148 على أنه: “كل من تولى حراسة شيء يكون مسؤولا عما يحدثه هذا الشيء من ضرر للغير سواء أكان هـذا الشيء حيوانا أم جماداً وسواء أكان منقولا أم عقارا.”
-وذات الأمر، ينطبق على قانون الموجبات والعقود اللبناني، الذي ينص في مادته 131 على أنه: “إن حارس الجوامد المنقولة وغير المنقولة يكون مسؤولا عن الأضرار التي تحدثها الجوامد حتى في الوقت الذي لا تكون فيه تحت إدارته أو مراقبته الفعلية، كالسيارة وقت السير، أو الطيارة وقت طيرانها، أو المصعد وقت استعماله.”
أما بالنسبة للثاني:
–ويتبنى هذا الموقف القانون المدني العراقي، الذي ينص في مادته 231 على أنه: “كل من كان تحت تصرفه آلات میكانیكیة أو أشياء أخرى تتطلب عناية خاصة للوقاية من ضررها، يكون مسؤولاً عما تحدثه من ضرر ما لم يثبت أنه اتخذ الحيطة الكافية لمنع وقوع ھذا الضرر، ھذا مع عدم الإخلال بما يرد في ذلك من أحكام خاصة.”
-وكذا القانون المدني الكويتي الذي ينص في المادة 243 على أنه: «كل من يتولى حراسة شيء مما يتطلب عناية خاصة لمنع وقوع الضرر منه، يلتزم بتعويض الضرر الذي يحدثه هذا الشيء، ما لم يثبت أن هذا الضرر قد وقع بسبب أجنبي من قوة قاهرة، أو حادث فجائي، أو فعل المضرور أو فعل الغير. وتعتبر الأشياء التي تتطلب عناية خاصة لمنع وقوع الضرر منها السيارات والطائرات وغيرها من المركبات الأخرى والآلات الميكانيكية والسفن، والأسلحة، والأسلاك، والمعدات الكهربائية، والحيوانات، والمباني، وكل شيء آخر يكون بحسب طبيعته أو بحسب وضعه، مما يعرض للخطر.”
-وينضاف إليهما القانون المدني الليبي الذي جاء في مادته 181 على أنه: “كل من تولى حراسة أشياء تتطلب حراستها عناية خاصة أو حراسة آلات ميكانيكية يكون مسؤولا عما تحدثه هذه الأشياء من ضرر، ما لم يثبت أن وقوع الضرر كان بسبب أجنبي لا يد له فيه، هذا مع عدم الإخلال بما يرد في ذلك من أحكام خاصة.”
-ويضاف إلى ذلك، القانون المدني المصري الذي جاء في المادة 178 على أنه: “كل من تولى حراسة أشياء تتطلب حراستها عناية خاصة أو حراسة آلات ميكانيكية يكون مسئولا عما تحدثه هذه الأشياء من ضرر، ما لم يثبت أن وقوع الضرر كان بسبب أجنبي لا يد له فيه، هذا مع عدم الإخلال بما يرد في ذلك من أحكام خاصة.”
-وإلى جانب ذلك، نجد القانون المدني الأردني الذي ينص في مادته 291 على أنه: “كل من كان تحت تصرفه أشياء تتطلب عناية خاصة للوقاية من ضررها أو آلات ميكانيكية-يكون ضامنا لما تحدثه هذه الأشياء من ضرر إلا ما لا يمكن التحرز منه. هذا مع عدم الإخلال بما يرد في ذلك من أحكام خاصة.”
-ومن ذلك أيضا، نجد القانون المدني السوري الذي ينص في المادة 179 منه على أنه: “كل من تولى حراسة أشياء تتطلب حراستها عناية خاصة أو حراسة آلات ميكانيكية يكون مسئولا عما تحدثه هذه الأشياء من ضرر، ما لم يثبت أن وقوع الضرر كان بسبب أجنبي لا يد له فيه، هذا مع عدم الإخلال بما يرد في ذلك من أحكام خاصة.”
-وفي ذات الاتجاه، نجد قانون المعاملات المدنية الإماراتي الذي جاء في مادته 316 على أته: “كل من كان تحت تصرفه أشياء تتطلب عناية خاصة للوقاية من ضررها أو آلات ميكانيكية يكون ضامنا لما تحدثه هذه الأشياء أو الآلات من ضرر إلا ما لم يكن التحرز منه، وذلك مع عدم الإخلال بما يرد في هذا الشأن من أحكام خاصة.”
[32] إن أول ما يسترعي الانتباه، هو أن المشرع الفرنسي لم يحدد مفهوم الشيء في المادة 1242 (المادة 1384 قبل تعديل 10 فبراير 2016)، بيد أن الفقه والقضاء الفرنسيين قد حددا جملة من الشروط الرئيسية لانطباق مفهوم الشيء من عدمه؛ حيث اعتبرا أن لفظ الشيء هو ذو مفهوم مادي محسوس وملموس من مقتضيات العالم الواقعي لا الافتراضي، في حين ثمة من الفقه الفرنسي من يوسع من دائرة مفهوم الشيء ليشمل حتى الأشياء المعنوية . وأمام هذا الجدال الفقهي بين البعد المادي والمعنوي للشيء، تدخل المشرع الفرنسي في مشروع القانون المعدل لأحكام المسؤولية المدنية الذي قضى بنص صريح بالطبيعة المادية لمفهوم الشيء، حينما اعتبر أننا مسؤولون قانونا عن الاضرار الناشئة عن الأشياء المادية التي تحت حراستنا؛ مبينة أن كل انتهاك لتحديد قانوني أو التقصير في الواجب العام بالحيطة واليقظة يشكل خطأ وفق مفهوم مشروع هذا القانون.
للمزيد من التعمق في هذا الشأن، يرجى الرجوع إلى:
– Cyril Grimaldi، Droit des biens، LGDJ, 2e édition 2019, p. 20.
– Frédéric Zenati-Castaing, Thierry Revet, Les biens, 3e éd. PUF, Paris .2008, p. 15s.
– Rémy Libchaber, La recodification du droit des biens, In Le Code civil, 1804-2004, Libre .du Bicenteaire, éd. Dalloz, Paris, 2004, p22.[33] Vivant Michel., Lamy Droit du numérique, ÉDITION 2019. P: 686.
– Cour de Cassation, Arrêt Teffaine 16 juin 1896 et Arrêt Jand’heur de 1930. Planiol et) Ripert, Traité de droit civil français, Tome VI, 1952, p. 853 à 885.
–Thierry Debard, Serge Guinchard, Lexique des termes juridiques, 2013, Dalloz. D. Gutmann, Du matériel à l’immatériel dans le .droit des biens, Les ressources du langage juridique, 28e édition, 1999, T. 43, Pp. 65-78.
-Grégoire Loiseau, Pour un droit des choses, Recueil Dalloz. 2006,1 éd .n° 44, p. 3015
[34] همام القوصي: نظرية الشخصية الافتراضية للروبوت وفق المنهج الإنساني، دراسة تأصيلية تحليلية استشرافية في القانون المدني الكويتي والأوروبي، مقال منشور بمجلة جيل الأبحاث القانونية المعمقة، العدد 35، مرجع سابق، ص: 13.
[35] Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts, Springer, Numéro d’édition
1 .2013, p.98.
[36] The UNCITRAL secretariat on the United Nations Convention on the Use of Electronic Communications in International Contracts.
[37] ” an enabling provision and should not be misinterpreted as allowing for an automated message system or a computer to be made the subject of rights and obligations. Electronic communications that are generated automatically by message systems or computers without direct human intervention should be regarded as ‘originating’ from the legal entity on behalf of which the message system or computer is operated. Questions relevant to agency that might arise in that context are to be settled under rules outside the Convention.”
[38] معمر بن طرية وقادة شهيدة: أضرار الروبوتات وتقنيات الذكاء الاصطناعي: تحد جديد لقانون المسؤولية المدنية الحالي، مرجع سابق، ص: 122.
[39] Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts, Springer, Op.cit. , p.98.
[40] Paulius Cerka, Jurgita Grigiene, Gintare Sirbikyt, Liability for damages caused by artificial intelligence, Computer law & security review, n°31, 2015, p.385.
https://exe.legal/wp-content/uploads/2020/06/Liability-for-damages-caused-by-artificial-intelligence.pdf. 2020/11/17. 17:38
[41] بيد أن، قياس السيارات الذكية بالمصاعد لم تخلو من الانتقاد، حيث اعتبر منتقدوها أن تقنية تشبيه السيارات ذاتية القيادة بالمصاعد لازالت تتطلب مستويات معينة من الرقابة البشرية والإشراف ولم تبلغ درجة الأتمتة الكاملة. فضلا على أن هذه الفرضية لا تتوافق مع المنطق؛ لأن مثل هذا القياس سيترتب عليه إخلاء مسؤولية كل راكب على متن هذه المركبات قياسا على المصاعد، طالما أن الراكب يتم نقله في صندوق للقيادة ذاتي تابع لشركة النقل، في حين أن تقرير الوكالة الأمريكية الخاصة بأمن الطرقات، ذكرت في تقريرها عبارة “السائق” حوالي 75 مرة، في إشارة أن السائق لم يولى الانتباه اللازم، ولم يتبع تعليمات قيادة السيارة، ولم يتخذ أي إجراء لتجنب الاصطدام، أما مستعملي المصاعد فلا يترتب على عاتقهم أي التزام نظير هذا.
معمر بن طرية وقادة شهيدة: مرجع سابق، 127.
[42] وفي المقابل، ذهب بعض الفقه الأمريكي إلى أن اختلاف العناصر التكوينية لكل من الخيول والمركبات ذاتية القيادة؛ والمتمثلة في أن الأولى مخلوقة من دم وعظم وروح، بينما الثانية مصنوعة من الفولاذ ولوحات الكومبيوتر، لا يؤثر على التكييف القانون الذي لا يتأثر بتغير طبيعة وتركيبة الأحصنة والسيارات الذكية.
Imes CHIU, The Evolution from Horse To Automobile: A Comparative International Study 59 (2009).
أشار إليه معمر بن طرية وقادة شهيدة: أضرار الروبوتات وتقنيات الذكاء الاصطناعي: تحد جديد لقانون المسؤولية المدنية الحالي، مرجع سابق، ص: 128.
[43] نفس المرجع: 127.
[44] Alpha Construction vs. Branham 337 S.W.2d 790 (Ky. 1960).
أشار إليه معمر بن طرية وقادة شهيدة: أضرار الروبوتات وتقنيات الذكاء الاصطناعي: تحد جديد لقانون المسؤولية المدنية الحالي، مرجع سابق، ص: 127.
[45] معمر بن طرية وقادة شهيدة: مرجع سابق، ص: 127.
[46] Pour plus d’informations voir :
-Anne-Sophie CHONÉ-GRIMALDI et Philippe GLASER, Responsabilité civile du fait du robot doué d’intelligence artificielle : faut-il créer une personnalité robotique ?, Contrats Concurrence Consommation .ed 1, Janvier 2018, alerte 1 ;
-Cédric COULON, Du robot en droit de la responsabilité civile : à propos des dommages causés par les choses intelligentes, Responsabilité civile et assurances, Ed. Du Juris-classeur, 2016, étude 6, n°4, p.17 ;
– Jean-Sébastien BORGHETTI, L’accident généré par l’intelligence artificielle autonome, in « Le droit civil à l’ère numérique », actes du colloque du master 2 Droit privé général et du laboratoire de droit civil, 21 avr. 2017, JCP G 2017, numéro spécial, p.27.
[47] معمر بن طرية وقادة شهيدة: أضرار الروبوتات وتقنيات الذكاء الاصطناعي: تحد جديد لقانون المسؤولية المدنية الحالي، مرجع سابق، مرجع سابق، ص: 128.
[48] Pour plus d’informations voir :
– Marie Soulez, Propriété intellectuelle – Le droit de la propriété intellectuelle à l’épreuve) des technologies robotiques. Edition Générale n°37. 2016, JCP G, p. 972.
-Marie SOULEZ, L’intelligence artificielle, un enjeu d’économie et de civilisation Questions juridique au sujet de l’intelligence artificielle, Enjeux numériques. Edition n°1 mars 2018.
-Jacques Larrieu, Robot et propriété intellectuelle, Dalloz, Paris, ÉDITION DU 4 NOVEMBRE 2020 p. 291
-ERIC LAVALLÉE, La propriété intellectuelle de l’intelligence artificielle, voir sur /https://www.lavery.ca/DATA/PUBLICATION/3037_fr~v~la-propriete-intellectuelle-de-lintelligence-artificielle.pdf. 2020/11/17. 18:37
أشار إليهم: محمد عرفان الخطيب: المسؤولية المدنية والذكاء الاصطناعي…إمكانية المساءلة؟ دراسة تحليلية معمقة لقواعد المسؤولية المدنية في القانون المدني الفرنسي، مرجع سابق، ص128.
[49] Cédric COULON, Du robot en droit de la responsabilité civile : à propos des dommages causés par les choses intelligentes Op.cit., p.17.
[50] للمزيد من التعمق في هذه النقطة، يرجى الرجوع إلى:
– محمد طاهر قاسم: الأساس القانوني للمسؤولية عن الأشياء الخطرة أمام القضاء العراقي، مقال منشور بمجلة الرافدين للحقوق، كلية الحقوق جامعة الموصل، المجلد 13، العدد: 49، سنة 2011، ص: 204.
– عبد القادر العرعاري: مصادر الالتزامات، الكتاب الثاني: المسؤولية المدنية دراسة مقارنة على ضوء النصوص التشريعية الجديدة، المتعلقة بالمحاور التالية: المبادئ العامة للمسؤولية المدنية، نظام المسؤولية العقدية، نظام المسؤولية التقصيرية، المسؤولية عن حوادث السير، المسؤولية المدنية عن مخاطر المنتوجات المعيبة، مرجع سابق، ص: 217 و218.
– عبد الرحمان الشرقاوي: القانون المدني دراسة حديثة للنظرية العامة للالتزام في ضوء تأثرها بالمفاهيم الجديدة للقانون الاقتصادي، مصادر الالتزام، الجزء الثاني، الواقعة القانونية، المسؤولية التقصيرية والإثراء بلا سبب، مرجع سابق، ص: 174 و175.
– أياد عبد الجبار ملوكي: المسؤولية عن الأشياء وتطبيقاتها على الأشخاص المعنوية بوجه خاص، دار الثقافة للنشر والتوزيع عمان، الطبعة الأولى، سنة 2009، ص: 122.
[51] Cédric COULON, Du robot en droit de la responsabilité civile : à propos des dommages causés par les choses intelligentes Op.cit. , p.17.
[52] Vivant Michel., Lamy Droit du numérique, Op.cit. p:686.
[53] Jean-Sébastien BORGHETTI, L’accident généré par l’intelligence artificielle autonome, in « Le droit civil à l’ère numérique », actes du colloque du master 2 Droit privé général et du laboratoire de droit civil,
Op.cit., p.27.
[54] معمر بن طرية وقادة شهيدة: أضرار الروبوتات وتقنيات الذكاء الاصطناعي: تحد جديد لقانون المسؤولية المدنية الحالي، مرجع سابق، مرجع سابق، مرجع سابق، ص: 130.
[55] عماد عبد الرحيم الدحيات: نحو تنظيم قانوني للذكاء الاصطناعي في حياتنا: إشكالية العلاقة بين البشر والآلة، مقال منشور بمجلة الاجتهاد للدراسات القانونية والاقتصادية، المجلد: 8، العدد: 5، سنة 2019، ص: 21.
[56] محمد عرفان الخطيب: المسؤولية المدنية والذكاء الاصطناعي…إمكانية المساءلة؟ دراسة تحليلية معمقة لقواعد المسؤولية المدنية في القانون المدني الفرنسي، مرجع سابق، ص: 138.
[57] وللمزيد من التعمق في موضوع الذكاء الاصطناعي والروبوت ومفهوم الحراسة، يرجى الرجوع إلى ما يلي:
– Cristiano Castelfranchi et Rino Falcone, From automaticity to autonomy: The frontier of artificial agents, In H. Hexmoor, Voir sur : https://www.researchgate.net/publication/229008090_From_Automaticity_to_Autonomy_The_Frontier_of_Artificial_Agents2020/11/4
– Monika Zalnieriute Lyria Bennett Moses George Williams The Rule of Law and Automation of Government Deci sion-Making, Modern Law Review 82. 2019, Pp. 397-424.
– Besson André. La notion de garde dans la responsabilité du fait des choses: thèse). Dijon, 1927. D. Mayer, La « garde » en commun, RTD civ. 1975, p. 197.
-Cédric Coulon, Du robot en droit de la responsabilité civile : à propos des dommages) causés par les choses intelligentes. Responsabilité civile et assurance, n° 4, avril .2016, étude 6, Pp. 17–21.
– Paulius Čerka, Gintarė Sirbikytė , Jurgita Grigienė , Liability for damages caused by artificial) .intelligence, Computer law & security review, vol. 31, 2015, Pp. 376-389.
– Matthew Scherer، Regulating artificial intelligence systems: risks، challenges competencies، and strategies، Harvard Journal of Law & Technology، vol. 29, n° 2 2016, Pp. 353-400.
[58] Katherine Sheriff, Defining Autonomy in the Context of Tort liability: Is Machine Learning), Indicative of Robotic Responsibility, Thèse, Atlanta, Emory University of Law.2015.
– M. Zalnieriute, et al., The Rule of Law and Automation of Government Decision).Making, op., cit., Pp. 397-424.
– Serge Migayron, Pratique contentieuse : Intelligence artificielle : qui .sera responsable ? Revue Communication commerce électronique, n° edition 4, 2018.
أشار إليهم: محمد عرفان الخطيب: المسؤولية المدنية والذكاء الاصطناعي…إمكانية المساءلة؟ دراسة تحليلية معمقة لقواعد المسؤولية المدنية في القانون المدني الفرنسي، مرجع سابق، ص139.
[59] محمد عرفان الخطيب: ص: 139.
[60] محمد عرفان الخطيب: ص: 139.
[61] Office parlementaire d’évaluation des choix scientifiques et technologiques, Rapport «Pour une intelligence artificielle maîtrisée, utile et démystifiée », spéc. p. 153.
[62] CESE, Avis « Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société », spéc. N° Edition 3.p33.
[63] – Laurent ARCHAMBAULT et Léa ZIMMERMANN، La réparation des dommages causés par l’intelligence artificielle : le droit français doit évoluer، Gaz. Pal. 6 mars 2018, n° edition 9, p. 17.
[64] Article 1245-3: “Un produit est défectueux au sens du présent chapitre lorsqu’il n’offre pas la sécurité à laquelle on peut légitimement s’attendre.
Dans l’appréciation de la sécurité à laquelle on peut légitimement s’attendre, il doit être tenu compte de toutes les circonstances et notamment de la présentation du produit, de l’usage qui peut en être raisonnablement attendu et du moment de sa mise en circulation.
Un produit ne peut être considéré comme défectueux par le seul fait qu’un autre, plus perfectionné, a été mis postérieurement en circulation.”
[65] Article 1245-1: “Les dispositions du présent chapitre s’appliquent à la réparation du dommage qui résulte d’une atteinte à la personne.
Elles s’appliquent également à la réparation du dommage supérieur à un montant déterminé par décret, qui
résulte d’une atteinte à un bien autre que le produit défectueux lui-même.”
[66] Article 1245-» :8Le demandeur doit prouver le dommage, le défaut et le lien de causalité entre le défaut et le dommage.”
[67] الكرار حبيب جهلول وحسام عبيس عودة: المسؤولية المدنية عن الاضرار التي يسببها الروبوت، مرجع سابق، ص: 735.
[68] معمر بن طرية وقادة شهيدة، أضرار الروبوتات وتقنيات الذكاء الاصطناعي: تحد جديد لقانون المسؤولية المدنية الحالي مرجع سابق، ص:124.
[69] معمر بن طرية وقادة شهيدة، مرجع سابق، ص: 131.
[70] “ Est un produit tout bien meuble, même s’il est incorporé dans un immeuble, y compris les produits du sol, de l’élevage, de la chasse et de la pêche. L’électricité est considérée comme un produit.”
ويقابل الفصل 1245-2 من القانون المدني الفرنسي، الفصل 106-2 من قانون الالتزامات والعقود المغربي الذي جاء فيه أنه: “يراد بمصطلح “منتوج” كل شيء تم عرضه في السوق في إطار نشاط مهني أو تجاري أو حرفي، بعوض أو بدون عوض، سواء كان جديدا أو مستعملا، وسواء كان قابلا للاستهلاك أو غير قابل له، أو تم تحويله أو توضيبه وإن كان مدمجا في منقول أو عقار. تعد منتوجات الأرض وتربية الماشية والأسماك والقنص والصيد منتوجات. تعتبر الكهرباء منتوجا كذلك. “
[71] Sébastien BORGHETTI, La responsabilité du fait des produits défectueux, Etude de droit comparé, L.G.D.J., Edition 2004, Bibliothèque de droit privé, p 494.
[72] Cédric COULON, op .cit., p 12
[73] Mracek v Bryn Mawr Hospital, 610 F Supp 2d 401 (ED Pa 2009), aff’d, 363 F App’x 925 (3d Cir2010).
أشار إليه: معمر بن طرية وقادة شهيدة، أضرار الروبوتات وتقنيات الذكاء الاصطناعي: تحد جديد لقانون المسؤولية المدنية الحالي مرجع سابق، ص:124.
[74] وللمزيد من التعمق في هذه الفكرة، يرجى الرجوع إلى:
– Michael Gemignani, Product liability and software, Rutgers Computer & Technology) Law Journal, vol. 8 (2), 1981, p. 173.
– Maruerite Gestner, Liability issues with artificial intelligence software, Santa Clara Law Review, vol. 33, edition 1, 1993, Pp. 239-265
-Jacques Larrieu, Les robots et la propriété intellectuelle, Propriété industrielle., n°2, 2013) ?A. Lebois, Quelle protection juridique pour 36 les créations des robots journalistes Communication Commerce Electronique., edition 1, 2015.
– Grégoire Loiseau., A. Bonnet, La responsabilité du fait de l’intelligence artificielle, op, cit., p. 36.
– Hocquet- Berg, La notion de risque de développement en matière de responsabilité du fait) des produits défectueux, JCP edition199. p3945.
– G. Raymond, Premières vues sur la loi ,n° 98-389 du 19 mai 1988 relative à la responsabilité du fait des produits défectueux .Contrats., 2ème éd. 1988, chron., p. 7.
أشار إليهم: محمد عرفان الخطيب: المسؤولية المدنية والذكاء الاصطناعي…إمكانية المساءلة؟ دراسة تحليلية معمقة لقواعد المسؤولية المدنية في القانون المدني الفرنسي، مرجع سابق، ص:130 وما يليها.
[75]” considérant que le cadre juridique actuel sur la responsabilité du fait des produits, en vertu duquel le fabricant d’un produit est responsable en cas de dysfonctionnement, et les règles définissant la responsabilité en cas d’actions dommageables, en vertu desquelles l’utilisateur d’un produit est responsable de tout comportement causant des dommages, s’applique aux dommages causés par un robot ou une intelligence artificielle.”
Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) Disponible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html Vu sur2020/10/28. 12:58
[76] Council Directive 85/374/EEC of 25 July 1985 on the approximation of the laws, regulations and administrative provisions of the Member States concerning liability for defective products.
https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A31985L0374.
2020/10/28، 12:54.
[77] “considérant qu’en ce qui concerne la responsabilité non contractuelle, la directive 85/374/CEE ne couvre que les dommages causés par les défauts de fabrication d’un robot, à condition également que la victime puisse apporter des preuves du dommage réel, du défaut du produit et de la relation de cause à effet entre le dommage et le défaut, et que, dès lors, le cadre fondé sur la responsabilité objective ou la responsabilité sans faute pourrait ne pas suffire.“
Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) Disponible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html Vu sur2020/10/28. 12:58.
[78] “considérant que, nonobstant le champ d’application de la directive 85/374/CEE, le cadre juridique actuellement en vigueur ne suffirait pas à couvrir les dommages causés par la nouvelle génération de robots, puisque celle-ci peut être équipée de capacités d’adaptation et d’apprentissage qui entraînent une certaine part d’imprévisibilité dans leur comportement, étant donné que ces robots tireraient, de manière autonome, des enseignements de leurs expériences, variables de l’un à l’autre, et interagiraient avec leur environnement de manière unique et imprévisible.“
Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) Disponible sur : https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html Vu sur2020/10/28. 12:58.