الجوانب القانونيه للذكاء الاصطناعى والروبورت

أعداد الباحث : سيد طنطاوى محمد – ماجستير فى القانون الدولى العام – باحث كتوراه

 

مقدمه :

تعتبر جرائم الذكاء الاصطناعي هى جرائم المستقبل القريب إن لم يكن بدأ بعضها الآن، فقد ساعد التطور التكنولوجى خلال السنوات الماضية – والذى تسارعت وتيرته في الفترة الحالية – في ظهور العديد من تلك الجرائم، حيث أعطت البرمجة المتطورة لبعض الآلات التى تعمل بالذكاء الاصطناعي قدرات تصل خطورتها إلى بناء خبرة ذاتية تمكنها من اتخاذ قرارات منفردة في اية مواقف تواجهها مثل الإنسان البشري حيث كان الهدف من الكثير من الأبحاث في الذكاء الاصطناعى والقانون هو تطوير CMLRs التي يمكن تقديم حجج قانونية واستخدامها للتنبؤ بنتائج النزاعات القانونية. CMLR هو برنامج كمبيوتر يقوم بتنفيذ عملية تثبت سمات الإنسان المنطق القانوني. قد تتضمن العملية تحليل الموقف والرد على الوضع القانوني السؤال ، التنبؤ بنتيجة ، أو تقديم حجة قانونية. مجموعة فرعية من CMLRs تنفذ عملية الجدال القانوني كجزء من منطقهم. في عام 1981 ، وهو موظف ياباني يبلغ من العمر سبعة وثلاثين عامًا قُتل مصنع للدراجات البخارية على يد المخابرات روبوت يعمل بالقرب منه. الروبوت حدد خطأ الموظف كتهديد لمهمته ، ويحسب ذلك الطريقة الأكثر فاعلية للقضاء على التهديد هي دفع عامل في آلة المجاورة. يستخدم قوية جدا ذراع هيدروليكي ، حطم الروبوت العامل المفاجئ آلة التشغيل ، قتله على الفور ، وبعد ذلك استأنفت واجباتها دون مزيد من التدخل.

هذا ليس الخيال العلمي ، والسؤال القانوني هو هذا: من هو أن من يتحمل المسؤولية الجنائية عن هذا القتل ففي معظم البلدان المتقدمة ، تستخدم المركبات غير المأهولة ، والروبوتات الجراحية ، والروبوتات الصناعية ، والخوارزميات التجارية ، والروبوتات الشخصية ، وغيرها من كيانات الذكاء الاصطناعي (منظمة العفو الدولية). قد يكون هذا الاستخدام شخصيًا أو طبيًا أو عسكريًا أو تجاريًا أو صناعيًا. مسألة المسؤولية الجنائية تنشأ عندما تكون السيارة بدون طيار متورطة في حوادث السيارات ، والروبوت الجراحي متورط في أخطاء جراحية ، وتشارك خوارزمية التداول في الاحتيال ، ف من الذي يتحمل المسؤولية الجنائية عن هذه الجرائم:

  • الشركة المصنعة ، مبرمج ، المستخدم ، أو كيان منظمة العفو الدولية نفسها؟

العالم التكنولوجي يتغير بسرعة. الروبوتات وأجهزة الكمبيوتر يتم استبدال البشر بشكل متكرر في القيام بأنشطة بسيطة.

طالما استخدمت البشرية أجهزة الكمبيوتر كأدوات فقط ، لم يكن هناك فرق كبير بين أجهزة الكمبيوتر والمفكات ، والسيارات ، أو الهواتف. كن مع تطور أجهزة الكمبيوتر بشكل متزايد ، بدأنا نقول أنهم “يفكرون” بالنسبة لنا. بدأت المشاكل عندما تطورت أجهزة الكمبيوتر من “آلات التفكير” (أجهزة مبرمجة لأداء تفكير محدد العمليات ، مثل الحوسبة) في آلات التفكير دون علامات اقتباس – بعبارة أخرى ، ذكية بشكل مصطنع. الذكاء الاصطناعي هي قدرة الآلة على تقليد السلوك الذكي.

الذكاء الاصطناعي ، إذن ، هو محاكاة السلوك البشري و العمليات المعرفية على الكمبيوتر. على هذا النحو ، هو أيضا دراسة الطبيعة المجال بأكمله من العقول الذكية. بحوث الذكاء الاصطناعي.

منهجيه البحث :

اعتمد الباحث على المنهج التحليلي الوصفي للتعامل مع الظاهرة قيد الدراسة لتحديد علاقاتها. مناقشة ما إذا كان من المناسب أخلاقيا ، أو حتى إلزامي ، الاعتماد على الروبوتات عندما تكون أكثر أمانًا من انتقال الناس لنا إلى أخلاقيات أوسع الأسئلة التي تنطوي على الروبوتات.

“مبادرة Roboethics المفتوحة و روبوت المصاعد “AJung Moon et al. يصف مبادرة مفتوحة المصدر لتسريع التصميم من القاعدة إلى القمة لمبادئ الأخلاقيات مناسبة للتنفيذ. يستجيب الاقتراح لكل من تجزئة مبادرات roboethics الحالية وميل القائمة الأساليب التي يديرها الخبراء ؛ وهذا هو ، ليكون من أعلى إلى أسفل في اتجاههم. يسمح النهج من القاعدة إلى القمة بمزيد من المشاركة العامة ، الأمر الذي يجادل المؤلفون بأنه مناسب بشكل خاص لتطوير القواعد المستندة إلى الأخلاق والتي يجب أن تعتمد بطبيعتها على السياق.

توضيح مدى اعتماد هذه القواعد على السياق ، المؤلفون تقديم إثبات للمفهوم باستخدام مثال “ركوب المصعد” روبوت “أنه للسلامة وأسباب أخرى يجب أن يكون الراكب الوحيد على مصعد في المبنى حيث يسلم الأشياء. كيف ينبغي التعامل معها المصاعد التي تصل تحتوي على الناس؟ هل يطلب منهم الخروج؟

  • ماذا عن عندما ينتظر الروبوت المصعد مع الناس تنوي أيضا استخدامه ؟

مشكله البحث :

في تطوير هذه النماذج ، يعالج الباحثون أسئلة مثل كيفية تمثيل معنى القاعدة القانونية بحيث يمكن لبرنامج الكمبيوتر أن يقرر ما إذا كان ينطبق على الموقف ، وكيفية التمييز بين “الثابت” والقضايا القانونية “السهلة” ، والأدوار تلك الحالات والقيم تلعب في تفسير القواعد القانونية. إجاباتهم على هذه الأسئلة ليست فلسفية بل علمية ؛ برامج الكمبيوتر الخاصة بهم ليس فقط نموذج مهام التفكير القانوني ولكن أيضا القيام بها في الواقع ؛ والسلوك الباحثون تجارب لتقييم مدى أداء برامجهم.

بينما حقق الباحثون في منظمة العفو الدولية والقانون خطوات كبيرة ، وتمثيل المعرفة أعاق عنق الزجاجة تقدمهم نحو المساهمة في الممارسة القانونية. إلى هذا الحد، المعرفة القانونية الموضوعية المستخدمة من قبل النماذج الحسابية لديها ليتم استخراجها يدويًا من مصادر قانونية ، أي من الحالات ، القوانين ، اللوائح ، العقود والنصوص الأخرى التي يستخدمها المهنيون القانونيون بالفعل. ف خبراء الإنسان يجب أن تقرأ النصوص القانونية وتمثل الأجزاء ذات الصلة من محتواها في تشكيل النماذج الحسابية يمكن استخدامها. عدم القدرة على الاتصال تلقائيا لقد حصرت CMLRs الخاصة بها مباشرة على النصوص القانونية من قدرة الباحثين على تطبيقها برامج في العالم الحقيقي لاسترجاع المعلومات القانونية والتنبؤ بها واتخاذ القرارات. التطورات الأخيرة في QA المحوسبة ، IE من النص والتعدين وسيطة وعد لتغيير ذلك. يبحث نظام الإجابة على الأسئلة عن نص كبير

أهميه البحث:

الروبوتات تؤثر على مبادئ النظم القانونية الحالية في شقين الطريقة. أولا ، التكنولوجيا الروبوتية تحفز عددا من الثغرات القانونية الحرجة ، التي هي مناسبة في مجال القانون الجنائي ، على سبيل المثال ، توظيف الحكم الذاتي جنود الروبوت في المعركة. إلى حد كبير ، كريستوف هينز ، المقرر الخاص المعني بعمليات الإعدام خارج نطاق القضاء ، التي حث عليها في تقريره لعام 2010 إلى الأمم المتحدة الجمعية أن الأمين العام بان كي مون عقد مجموعة من الخبراء من أجل معالجة “السؤال الأساسي حول ما إذا كان ينبغي للقوة المميتة من أي وقت مضى أن تكون آلية بالكامل. ” من ناحية أخرى ، علينا أن تحديد ما إذا كان سلوك الروبوتات يقع داخل ثغرات النظام ، مما يستلزم تدخل المشرعين على الصعيدين الوطني والوطني المستويات الدولية ، كما فعلوا في أوائل التسعينيات عند إنشاء جديدة فئة جرائم الكمبيوتر.

إلى جانب الحصانة العسكرية والسياسية و كيف تؤثر الاستقلالية المتزايدة للروبوتات على المفاهيم الأساسية للنظام ، هكذا المعقولية ، والقدرة على التنبؤ ، أو التوقع ، هذه هي فئة القضايا الصعبة التي يشاركها المحامون الجنائيون خبراء في قانون الأضرار والعقودسلطات لاستخدام الروبوتات في المعركة ، والطبقة الثانية من الحالات الصعبة المخاوف.

خطه البحث:

تعريف الذكاء الاصطناعى :

  • المطلب الاول :أنواع الذكاء الاصطناعى
  • المطلب الثانى :المسئوليه عما تفعلة الروبورتات

المبحث الثانى :الاستدلال القانونى للروبورتات

  • المطلب الاول: وجهات نظر نقديه حول الشخصيه القانونيه
  • المطلب الثانى :قواعد المسئوليه واسباب الضرر

المبحث الاول: تعريف الذكاء الاصطناعى :

يُعتبر الذكاء الاصطناعي أحد فروع علوم الكمبيوتر وأحد الركائز الرئيسية التي تستند إليها صناعة التكنولوجيا في العصر الحالي ، ويمكن تعريف مصطلح الذكاء الاصطناعي – الذي يشار إليه باختصار (AI) – بأنه قدرة الآلات الرقمية وأجهزة الكمبيوتر على أداء مهام معينة تحاكيها وتماثلها تلك التي تقوم بها كائنات ذكية ، مثل القدرة على التفكير أو التعلم من التجارب السابقة أو غيرها من العمليات التي تتطلب عمليات عقلية ، والذكاء الاصطناعي يهدف إلى الوصول إلى الأنظمة التي استمتع بالذكاء وتتصرف بالطريقة التي يتصرف بها البشر فيما يتعلق بالتعلم وعدم الفهم ، بحيث توفر هذه الأنظمة لمستخدميها خدمات مختلفة مثل التعليم والإرشاد والتفاعل ، إلخ ولقد انطلق البحث الفلسفي في مجال الذكاء الاصطناعي تزامنا مع انبثاق الثورة العلمية الكبيرة في هذا المجال ، إذ استند هذا المشروع العلمي الخلاق على تلاحم علمي فلسفي يندر مثيله ، وعلى الرغم من التلاحم بين الفلسفة والعلم في إنجاز ثورات علمية قد حصل في تاريخ الفكر الإنساني بشكل استثنائي ولعل الثورة العلمية في اكتشاف قوانين التفاضل والتكامل خير مثال على ذلك ، إلا أن ابتكار الذكاء الاصطناعي جاء على خلفية فلسفية متطورة ومدروسة بشكل جيد خطط لها أن تستثمر علميا ، ففلسفة المنطق ثنائي القيمة المعاصرة وصلت إلى أوجها في بداية القرن العشرين بعد الجهود التي بذلت إلى شحن المنطق المعاصر بقدرة هائلة من المرونة المنبثقة من الجبر المنطقي المبتكر واللغات الرمزية المتعددة ، بحيث يستطيع أن يتعامل مع المجالات العلمية الأكثر دقة وصورية متمثلا ذلك بعلم الرياضيات ، إذ استطاع المنطق المعاصر أن يفسر الأسس الفلسفية المبني عليها هذا العلم ، كونه تسلح بلغة لا تستطيع أي لغة غيرها أن تبوح بما تعني به قوانين الرياضيات وعلى أي بنية فكرية تستند ، ذلك أن المنطق المعاصر بالإضافة إلى خاصيته الصورية الرمزية التي يشترك بها مع الرياضيات لكنه يتميز عنها بخاصية قدرته على شرح المضمون الفلسفي التي تنطوي عليه الجمل الرمزية على شكل إجرائية متسلسلة من الاستنتاجات ما تمتلكها الرياضيات الصرفة ، فهذه الخاصية الإجرائية التي تستطيع أن تشيد فرضيات أدق العلوم انطلاقا من أساسها الفكري بالإضافة إلى اللغة الفائقة البساطة التي يصوغ بها مضمونه الفكري والتي تتكون فقط من حرفين كونه منطق ثنائي القيمة ، ما جعل المنطق الرياضي المعاصر جاهزا بأن يداعب خيال العلماء لاستنساخ منه هاتين الخاصيتين وتنفيذها تقنيا على شكل لغة اصطناعية نتفاهم بها مع الآلة اما المعنى الشائع للذكاء الاصطناعي يتعلق كليا بمقارنة وتمييز ذكاء ماكينة الحاسوب نسبة إلى ذكاء الكائن البشري ، أو بوصف آخر للذكاء الاصطناعي بأنه الكيفية التي تصنف بها ماكينة الحاسوب ضمن حقل الذكاء  ولكن كلا الوصفين لم يلق قبولا عاما ليكون تعريفا للذكاءإذ جاء الاعتراض منصبا على أن ” الذكاء ” نشاط يستمد فهمه من تلاصقه بمالكه الشرعي وهو الإنسان.

المطلب الاول: انواع الذكاء الاصطناعى –

أنواع الذكاء الاصطناعى :

يعود مصطلح الذكاء الاصطناعى إلى القرن 50 ، وبالتحديد في الخمسينيات ، عندما كان العالم يقوم الآن باختبار تورينج الذي يعني تقييم الذكاء على جهاز كمبيوتر ، وتصنيفه بذكاء إذا كان قادرًا على محاكاة العقل البشري بعد أن ظهر اختبار تورينج عامًا ، أنشأ كريستوفر ستراشي أول برنامج ذكاء اصطناعي ، وكان رئيسًا لبحوث البرمجة بجامعة أكسفورد ، الذي لعب وطوّر لعبة لعبة Chequers من خلال الكمبيوتر ، وأنتوني أوتنجر (بالإنجليزية: Anthony Oettinger of صممت جامعة كامبريدج تجربة محاكاة مع جهاز كمبيوتر للتسوق البشري في أكثر من متجر ، ومصممة لقياس قدرة التعلم على الكمبيوتر ، وكانت أول تجربة ناجحة للتعلم الآلي. وقد تمّ إعلان مفهوم الذكاء الاصطناعي بشكل رسمي عام 1956م في كليّة دارتموث، ولكنه لم يُحقق أي تقدّم على مدى عشرين عاماً تقريباً، وقد يعود سبب ذلك إلى القُدرات الحاسوبيّة المحدودة التي كانت متوفرة آنذاك و في عام 1979 ، تم بناء Stanford ، أول مركبة يحركها الكمبيوتر ،  وفي عام 1997 تمكن أول كمبيوتر من التغلب على منافس بشري في لعبة الشطرنج ،  بدأت سرعة التسارع في الذكاء الاصطناعي في بداية القرن الحادي والعشرين. ، بحيث أصبحت الروبوتات التفاعلية متوفرة في المتاجر. والأكثر من ذلك هو أن الروبوت يتفاعل مع المشاعر المختلفة من خلال تعبيرات الوجه وغيرها من الروبوتات التي أصبحت مهام صعبة مثل نوماد ، الذي يبحث عن الأماكن النائية في القطب الجنوبي ويستكشفها ، ويحدد موقع النيازك في المنطقه فيُمكن تصنيف الذكاء الاصطناعي تِبعاً لما يتمتع به من قدرات إلى ثلاثة أنواع مُختلفة على النحو الآتي:

1- الذكاء الاصطناعي المحدود أو الضيق: يُعتبر الذكاء الاصطناعي المحدود أو الضيق (بالإنجليزيّة: Weak AI or Narrow AI) أحد أنواع الذكاء الاصطناعي التي تستطيع القيام بمهام مُحددة وواضحة، كالسيارات ذاتيّة القيادة، أو حتى برامج التعرُف على الكلام أو الصور، أو لعبة الشطرنج الموجودة على الأجهزة الذكية، ويُعتبر هذا النوع من الذكاء الاصطناعي أكثر الأنواع شيوعاً وتوفراً في وقتنا الحالي.

2-الذكاء الاصطناعي العام: (بالإنجليزيّة: General AI)، وهو النوع الذي يُمكن أن يَعمل بقدرة تُشابه قدرة الإنسان من حيث التفكير، إذ يُركز على جعل الآلة قادرة على التفكير والتخطيط من تلقاء نفسها وبشكل مُشابه للتفكير البشري، إلا أنه لا يوجد أيّ أمثلة عمليّة على هذا النوع، فكل ما يوجد حتى الآن مُجرد دراسات بحثيّة تحتاج للكثير من الجهد لتطويرها وتحويلها إلى واقع، وتعد طريقة الشبكة العصبيّة الاصطناعيّة (بالإنجليزيّة: Artificial Neural Network) من طرق دراسة الذكاء الاصطناعي العام، إذ تُعنى بإنتاج نظام شبكات عصبيّة للآلة مُشابهة لتلك التي يحتويها الجسم البشري.

الذكاء الاصطناعي الفائق: يُعتبر الذكاء الاصطناعي الفائق النوع الذي قد يفوق: 3- مستوى ذكاء البشر، والذي يستطيع القيام بالمهام بشكل أفضل مما يقوم به الإنسان المُتخصص وذو المعرفة، ولهذا النوع العديد من الخصائص التي لا بد أن يتضمنها؛ كالقدرة على التعلُم، والتخطيط، والتواصل التلقائي، وإصدار الأحكام، إلا أن مفهوم الذكاء الاصطناعي الفائق يُعتبر مفهوماً افتراضياً ليس له أي وجود في عصرنا الحالي

المطلب الثانى :المسئوليه عما تفعلة الروبورتات – 

بحلول السبعينيات اصبحت أهميه واضحة لمعظم العالم. وتسعى الحكومات في البلدان المتقدمة النمو والبلدان النامية إلى الحصول على التزامات طويلة الاجل بالموارد اللازمة لتمويل برامج البحوث المكثفة في ai – 11 وتعاونت الحكومات والمنظمات الخاصة بشكل روتيني في برامج التنمية في مجالات الروبوتات، والبرمجيات، ومختلف منتجات الحاسوب. وكان الدافع وراء هذه المشاريع هو إدراك أنه أصبح من الممكن تطوير نظم يمكن أن تظهر قدرات بشرية مثل فهم الكلام والمشاهد المرئية، وتعلم المعرفة وتنقيحها، واتخاذ قرارات مستقلة في الثمانينيات، حققت أبحاث مكاسب هائلة في تصميم وتطوير أنظمة الخبراء في مجالات الطب والتمويل والأنثروبولوجيا. ويتمثل التحدي الرئيسي لنظم الخبراء فى تطوير تمثيلات مناسبة للمعرفة في ميادين كل منها. لكي يكون الوصول إليها متاحاً بسهولة، يجب تخزين هذه المعرفة في نموذج يمكن استرجاعه و يتم عرضه تلقائيًا بواسطة واجهات النظام، البشرية أو الأخرى. كثير وأصبحت أنظمة الخبراء أدوات ناجحة، توسعت على مر السنين مع استخدام أدوات جديدة معرفة وتحسين مع مناهج تجريبية أفضل. ويتمثل التحدي التالي في تمكين إدماج التكنولوجيات الجديدة إلى أنظمة الخبراء بعد وقت قصير من توفرها.

فمنذ منذ بداية الذكاء الاصطناعى ، يحاول الباحثون تطوير أجهزة كمبيوتر “تفكر” بالفعل. هذا هو القبر المقدس لبحوث الذكاء الاصطناعى . ولكن لتطوير آلة التفكير ، من الضروري أولاً تحديد ماهية التفكير بالضبط. ثبت أن تحديد التفكير ، فيما يتعلق بالإنسان والآلات على حد سواء ، مهمة معقدة للباحثين من منظمة العفو الدولية. إن تطوير الآلات التي لديها القدرة على التفكير بشكل مستقل سيكون حدثًا مهمًا للجنس البشري ، الذي ادعى احتكار هذه المهارة العقلية العالية. إن إنشاء آلة تفكير حقيقية سيكون بمثابة ظهور نوع جديد على الأرض ، هو العاقل.

ولكن هل تريد العلوم الإنسانية إنشاء نوع جديد؟ منذ زمن سحيق ، كان الناس يحاولون لعب دور الله ، مع الخطوات الأولى الممنوع ذكرها في الكتاب المقدس تحتوي بعض جوانب البحث العلمي الحديث على عناصر ذات تصور مماثل ، بما في ذلك مساعي مثل الاستنساخ البشري ، والهندسة الطبية الحيوية ، والمساعي المناهضة للشيخوخة ،و اكثر. السعي لإنشاء نوع جديد يطابق هذا الاتجاه. على الرغم من أن إنشاء نوع جديد قد يفيد البشر ، فإن هذا ليس بالضرورة الدافع وراء بحث الذكاء الاصطناعى. قد يكون السبب أعمق من ذلك بكثير ، حيث يمس أعمق أسئلة الإنسان ، والتي حسب الكتاب المقدس ، كانت محظورة على البشر بعد الخطيئة الأصليةوالمزيد. إن السعي إلى خلق نوع جديد يتماشى مع هذا الاتجاه. على الرغم من أن إنشاء نوع جديد قد يفيد البشر، إلا أن هذا ليس بالضرورة الدافع وراء أبحاث آي. قد يكون السبب أكثر عمقا، لمس أعمق السترات البشرية، والتي، وفقا للإنجيل، كانت محظورة على البشر اتباع الخطيئة الأصلية  حيث تشير المعرفة الخارجية إلى بيانات واقعية عن العالم الخارجي و حول الواقع الواقعي. وتعتبر هذه السمة هامة في عصر متى  تعمل المعرفة كسلعة، لا سيما فيما يتعلق بالخبراء الأنظمة. من المتوقع أن يعرف الكيان الذكي كيفية العثور على البيانات الخاصة به العالم الخارجي، ومعرفة الحقائق التي تشكل الواقع الفعلي و تفترض هذه السمة مهارات الذاكرة والقدرة على تصنيف المعلومات إلى فئات تبدو ذات صلة. هذه هي الطريقة التى يجمع البشر تجربتهم الشخصية والطريقة التي يتعلمون بها. و يصعب التصرف ككيان ذكي إذا ما عولجت جميع العناصر الوقائعية في كل مرة كجديدة. وعلى الرغم من أن الأحداث الوقائعية جديدة في كل مرة، إلا أنها تفعل ذلك و تحتوي على خصائص مشتركة يجب على الكيان الذكي أن يتمتع بها حيث إن الاستخدام الصناعي لتكنولوجيا الذكاء الاصطناعي ليس بالأمر الجديد. وكما ذكر آنفا، فقد تم تبني تكنولوجيا “ai” في الصناعات المتقدمة منذ السبعينات. ولكن بينما في البداية، كانت الصناعة تستخدم تكنولوجيا ai بسبب تشابهها مع العقل البشري، ثم استخدمت في وقت لاحق بسبب فروقها عن العقل البشري. وقال إن الصناعة سريعة في إدراك أن التقليد الكامل والكامل للعقل البشري لن يكون مفيدا مثل التقليد غير المكتمل، ولذلك فإن الصناعة تشجع على تطوير تكنولوجيا ai ما دام تقليد العقل البشري غير كامل. ولأن التقليد الكامل للعقل البشري لا يزال بعيد المنال في المستقبل، فإن البحوث في مجال الصناعة وفي مجال الصناعة لا تزال مستمرة في التعاون.

الوضع هو أن المهمة التي يقوم بها الروبوت لم تنجز بنجاح. لكن بعض حالات الفشل يمكن أن تنطوي على ضرر وخطر للأفراد والمجتمع. على سبيل المثال ، تم تعريف مهمة الروبوتات حرس السجن على أنها منع الهروب من خلال استخدام الحد الأدنى من القوة ضد السجناء. سجين محاولة الهرب قد تكون مقيدة من قبل حارس الروبوت ، الذي يحمل السجين بحزم لكنه يسبب الأذى ؛ السجين قد يجادل بعد ذلك أن وقد استخدم الروبوت قوتها بشكل مفرط. تحليل إجراءات الروبوت قد تكشف أنه كان يمكن أن يكون اختيار عمل أكثر اعتدالا ، ولكن الروبوت كان تقييم الخطر باعتباره أكثر خطورة مما كان عليه في الواقع. في هذه الحالة ، من هو المسؤول عن الاصابة؟

يثير هذا النوع من الأمثلة أسئلة مهمة والعديد من الحجج حول مسؤولية الكيان ai. إذا تم التحليل من خلال عدسةالأخلاق، والفشل في هذا الموقف هو فشل المبرمج أو المصمم، كما قد يزعم أغلب العلماء، وليس الرجل الآلي ذاته. الروبوت لا يمكن تعزيز المساءلة الأخلاقية الضرورية لكي تكون مسؤولة عن أي ضرر ناجم عن أفعاله. ووفقاً لوجهة النظر هذه، فقط فالبشر قادرون على تعزيز مثل هذه المساءلة الأخلاقية. الروبوت ليس شيئا ولكن أداة في أيدي المبرمج، بصرف النظر عن جودة البرنامج أو القدرات المعرفية. ترتبط هذه الحجة بالمناقشة حول اله العقل .

فالمساءلة الأخلاقية هي في الواقع مسألة معقدة للغاية ، ليس فقط من أجلها آلات ، ولكن للبشر كذلك. الأخلاق ، بشكل عام ، لا يوجد لديه تعريف  مشترك تعريف مقبول في جميع المجتمعات من قبل جميع الأفراد. الأخلاق الأخلاقية (تركز على الإرادة والسلوك) والغائية الأخلاق (تركز على النتيجة) هي الأنواع الأكثر قبولا ، وفي العديد من المواقف التي أوصوا بإجراءات معاكسة أنفسهم أخلاقيا معنويا ، على الرغم من أن معظم المجتمعات والأفراد لا يتفقون. إذا كان من الصعب تقييم الأخلاق ، إذن المساءلة الأخلاقية قد لا يكون أنسب الطرق وأكثرها فعالية لتقييم المسؤولية في نوع القضية التي درسناها للتو.

في هذا السياق ، ستظل مسألة مسؤولية الكيانات بالنيابة دائمًا العودة إلى النقاش حول القدرة المفاهيمية للآلات لتصبح يشبه الإنسان ، بحيث يصبح البحث الذي لا نهاية له عن اله العاقل مسعى لا نهاية له للمساءلة بالنيابة. السؤال ذو الصلة هنا يتجاوز المسألة التكنولوجية ، وهي في الغالب مسألة اجتماعية. كيف يمكننا ، كمجتمع بشرى   ، اختيار تقييم المسؤولية في حالات الضرر و خطر على الأفراد والمجتمع؟

الأداة الاجتماعية الرئيسية المتاحة للتعامل مع مثل هذه الحالات بشكل يومي فى الحياة هي القانون الجنائي ، الذي يحدد المسؤولية الجنائية للأفراد الذين يضرون المجتمع أو يعرضونه للخطر. القانون الجنائي لديه أيضا التعليمية الاجتماعية لأنه يثقف الأفراد حول كيفية التصرف داخل مجتمعهم. على سبيل المثال ، يحظر القانون الجنائي القتل ؛ وبعبارة أخرى ، فإن يحدد القانون ما يعتبر جريمة قتل ويحظرها. هذا له قيمة معاقبة الأفراد على القتل السابق ، والمستقبلي تثقيف الأفراد بعدم قتل السابقين ، كجزء من قواعد المعيشة معا في المجتمع. وهكذا ، فإن القانون الجنائي يلعب دورا مهيمنا في المجال الاجتماعي ويراقب مراقبة قيمة فان إخضاع الروبوتات للقانون الجنائي قد يخفف من مخاوفنا من التعايش بين البشر. يلعب القانون الجنائي دورا هاما في إعطاء الناس شعور بالثقة الشخصية. يعرف كل فرد أن جميع الأفراد الآخرين في المجتمع ملزمون بطاعة القانون ، لا سيما القانون الجنائي. إذا تم انتهاك القانون من قبل أي فرد ، فإن المجتمع يفرضه عن طريق صلاحياتها القسرية ذات الصلة (الشرطة والمحاكم وما إلى ذلك). إذا كان أي فرد أو جماعة لا تخضع للقانون الجنائي ، والثقة الشخصية ل الأفراد الآخرين الذين  يتعرضون لأذى شديد.

المبحث الثانى :الاستدلال القانونى للروبورتات – 

أثيرت فكرة الحصانة القانونية في المقدمة من أجل معالجتها كروس في كيب هورن للفلسفة القانونية ..الفرق بين الأخلاق والقانون. المفهوم التقليدي أن “كل شيء غير محظور يسمح “ويتم تلخيصها مع مبدأ الشرعية والنتيجة الطبيعية سيادة القانون. والهدف من ذلك هو ضمان الحماية الفردية ضد الإجراءات العامة التعسفية ، بحيث يتم فرض المسؤولية الجنائية على أساس قواعد محددة في القوانين أو القوانين. هذا هو السبب في الابتكار التكنولوجي يجبر المشرعين باستمرار على التدخل من خلال إضافة القواعد تنظيم الظروف الجديدة والجرائم الجديدة.

ما حدث في مجال جرائم الكمبيوتر منذ بداية 1990s ، من المرجح أن تحدث كذلك في مجال الجرائم الآلية. بالإضافة إلى الوظيفة الأسلحة الفتاكة المتمتعة بالحكم الذاتي في المعركة كما ذكر في المقدمة ، فكر في جيل جديد من الروبوتات المتصلة بالإنترنت تلقائيًا جمع المعلومات في البيئات المفتوحة ، أي في العالم الواقعي وتقديم هذه المعلومات البيئية إلى خوادم السحابة. من خلال تكرار هذه البيانات ونشرها ، يمكن أن تنتهك الروبوتات بشكل خطير الضمانات المتعلقة بالخصوصية وحماية حقوق النشر ، والأسرار التجارية ، أو الأمن القومي.

فيدور هذا الجانب الثنائي مع مبدأ الشرعية ، على سبيل المثال ، حصانة البلطجية الإلكترونية في أوائل التسعينيات ، حول ما إذا كانت التطبيقات التكنولوجية الجديدة توفر ثغرات في مجال القانون الجنائي.

الأمور مختلفة في القانون المدني. فكر في بنود العقود و الالتزامات ، حيث يتم تلخيص شروط الحصانة تقليديا بالتعبير اللاتيني ، أي impossibilia nemo tenetur ، أي “لا أحد تمسك بما هو مستحيل. ” الهدف هنا هو ضمان اللعب النظيف في التفاعلات الفردية والحماية من السلوك التعسفي من الأفراد.

خلافًا للقانون الجنائي ، يلعب القياس دورًا مهمًا في هذا المجال ، كما يقول تينيت ، عن بطلان العقود بين البشر يمكن أن تنطبق بشكل شرعي على العوامل الاصطناعية. هذا النوع من عدم المسؤولية فيجب التمييز بين الحالات التي يتم فيها إنشاء الحصانة بأثر رجعي ، أي ما يسميه المحامون الأمريكيون تقليديًا “الدفاعات الإيجابية” بالترتيب للتأكيد على الظروف التي قد يثيرها المدعى عليه والتي قد تبرر ذلك مسؤوليتها. بالإضافة إلى شروط الخلو فى هذا السياق

فالتفكير في الإبطال والبحث عن الأخطاء في العقود ، على سبيل المثال ، الأخطاء المتعلقة بجوهر موضوع العقد ، أو الأخطاء المتعلقة بقيمة أو سعر السوق لعنصر ما. في أعقاب تصريحات جيوفاني سارتور في المعرفية الأوتوماتية والقانون (2009) ، يمكن القول أن البشر لن يكونوا قادرين على تجنب المعتاد نتيجة ارتكاب الروبوتات لخطأ حاسم ، أي إبطال العقد ، عندما ينبغي أن يكون النظير البشري على علم بالخطأ بسبب أي سلوك روبوتي خاطئ. وأخيرا ، ينبغي أن يكون واضحا أن المشرعين يمكن أن تنشأ في كل من المدنية و يضيف القانون الجنائي أشكالًا أخرى من الحصانة بموجب القانون وما يسميه المحامون العامون عبارات الملاذ الآمن. مرة أخرى ، يختلف معنى هذه البنود وفقًا لمجال النظام القانوني. في القانون العام ، يتم تعريف حصانة السلطات السياسية ومسؤولية المتعاقدين من القطاع الخاص في مجال تكنولوجيا الروبوتات العسكرية من خلال القواعد المنصوص عليها في قانون دعاوى التعويض الفيدرالي الأمريكي ، 28 الولايات المتحدة. §المادة 2401 ب و 2671. هنا ، يحظر قانون دعاوى الضرر الفيدرالية الدعاوى التي تنطوي على وظائف تقديرية لإنفاذ القانون وأنواع مختلفة من الأضرار المتعمدة. في قانون الاتحاد الأوروبي ، مثال على ذلك في المادة 15 من التوجيه 2000/31 بشأن التجارة الإلكترونية –  في هذه الحالة نجد : –

2 في القانون والفلسفة والتكنولوجيا “لا يوجد التزام عام بمراقبة المعلومات التي [خدمة الإنترنت الموفرون] ينقلون أو يخزنون ، ولا التزام عام بنشاط للبحث عن حقائق أو ظروف تشير إلى نشاط غير قانوني “. في نهاية اليوم ، هل من الحكمة اعتماد مثل هذه الأحكام من الحصانة في جميع المجالات القانونية للروبوتات الملاحظة الثالثة للمسؤولية القانونية تتوقف على تلك التي الأفراد الاتفاق طواعية من خلال العقود أو على الأضرار الناجمة عن بهم خطأ الخاصة. في معظم الأحيان ، لا يتم تحديد المسؤولية بشكل مسبق ، أي ، بواسطة إنشائه وفقًا لقواعد المسؤولية الصارمة ، أو استبعاده على الإطلاق عدم المسؤولية عبر بنود الحصانة). بدلا من ذلك ، يتم تأسيس المسؤولية السابقين آخر ، كما يحدث في قانون الضرر عندما يفشل الشخص المعقول في الحراسة حيث انه اذا وجد ضرر متوقع أو شخص قام طوعًا بعمل غير مشروع يحظره القانون. هذا النوع من المسؤولية وبالتالي يقوم على ظروف القضية: خلافًا لشروط المسؤولية الصارمة ، يقع عبء الإثبات على عاتق المدعي ، الذي يتعين عليه إظهار النية الخاطئة للطرف المقابل لها أو إهمال المذنب.

يمكن أن تكون هذه الطريقة لتحديد المسؤولية عبر عبء الإثبات يتضح مع الروبوتات دافنشي الجراح واستئصال البروستاتا أن أن مريض خضع خضع مريض في مستشفى برين مور في فيلادلفيا في عام 2005. خلال التدخل بمساعدة الروبوت ، بدأ الجهاز في عرض رسائل الخطأ ، والأكثر من ذلك ، لم يسمح للفريق البشري من الأطباء بإعادة ضبط ذراعه يدويًا. بعد 45 دقيقة قرر الأطباء فك الروبوت تماما ، كانوا قادرين على المضي قدما يدويا في الجراحة. ما يزال، بعد أسبوع واحد ، عانى المريض من نزيف خطير ، وفي وقت لاحق ، ضعف الانتصاب وآلام في البطن اليومية.حيث اقام  دعوى قضائية ضد كل من دا جلبت فينشي الصانع والمستشفى في المحكمة المشتركة فالمناشدات في فيلادلفيا. تركت جانبا تفاصيل القضية التي تمت مناقشتها ما يهم هنا هو أن عبء الإثبات لم يسقط  في القانون والفلسفة والتكنولوجيا على المدعى عليهم ، ولكن على المدعي. منذ شخصيات دافنشي يظهر الروبوت أن مثل هذه الآلات تعمل ، إن لم تكن أفضل من البشر ، كان المريض هو الذي اضطر إلى تقديم دعم مقنع لمزاعمه ، أي خطأ نظرائه.

وفقًا لظروف القضية ، لا تنطبق طريقة توزيع المسؤولية والمخاطر هذه على القانون المدني ، على سبيل المثال ، العقود فقط. والنتيجة الطبيعية الأخرى لمبدأ الشرعية وسيادة القانون هي أن الخطأ يجب أن يكون ثبت من قبل النيابة العامة في القانون الجنائي وفقا لقاعدة محددة أوالنظام الأساسي.

يجب اعتبار استثناء هذه الطريقة لتحديد المسؤولية عبر عبء الإثبات استثناءً. وبصرف النظر من حالات عدم ارتكاب أي خطأ في قانون الأضرار ، فإنه فقط في الأنظمة الاستبدادية وسيناريوهات كافكايس التي يحتاج المتهمون إلى إثبات براءتهم.

المطلب الاول:وجهات نظر نقديه حول الشخصيه القانونيه – 

الشخص الاعتباري ليس مفهومًا ذا معنى واضح أو حقيقي أو حقيقي ، يمكن أن يفسره الفقه القانوني ويستخدمه المحامون. إنه مفهوم مثل أي ، وهذا ، غامض ، ولكن حتى أكثر غموضًا من البعض لأنه مفهوم يشمل الفلسفية ، ودلالات أيديولوجية وحتى بيولوجية حول معنى أن تكون إنسانًا لكن مفهوم الفراغ بالمعنى الدقيق ليس مفهوما للتأثير – على العكس ربما.

الشخص الاعتباري ، والقريب ، الموضوع القانوني ، هي فئات أساسية للفكر القانوني الغربي. من الصعب على المحامين أن يروا كيف القانون يمكن أن تعمل بدونها. لديهم أهمية حيوية في تنظيم القانون ؛ انها القواعد والمؤسسات والممارسات. الشخص الاعتباري هو مفهوم يتم استخدامه ، أي ، يتم استخدامه في القانون.

أنها ليست أداة محايدة ، ولكن واحدة منتجة. الإنتاج هنا يعمل في العديد من الاتجاهات.

المفهوم يشكل القانون وعملياته الأهم عند استخدامها وتشمل استبعاد المشاركة القانونية. القانون له تأثير حاسم على المجتمع كما هو تتمسك بطرق معينة لفهم الشخص ، بينما تحجب الآخرين. لكن القانون ، ومفهوم الشخصية القانونية معه ، تتأثر بالعوامل المجتمعية مثل المعتقدات والقيم والسياسات والأيديولوجية. القانون هو تقنين السياسة ، و السياسة بالطبع ليست محايدة. هذا التحليل لشخصية قانونية يحاول الكشف عنها تضامنها الأيديولوجي و يمكن تقسيم المقاربات النظرية الحالية للشخص الاعتباري تقريبًا إلى مجموعتان رئيسيتان .3 في النظريات التحليلية ، الشخص الاعتباري هو حيلة قانونية خالصة.

أنه مفهوم يستخدمه المحامون لأغراض المحاماة ، وهو ليس حقيقيًا ، كما أنه ليس كذلك يجب بالضرورة أن تعكس أي شيء في العالم الحقيقي. وفقًا لهذه المفاهيم ، فإن الشخص الاعتباري لا – ولا ينبغي – يعتمد على الميتافيزيقية أو الأخلاقية الافتراضات حول البشر. المشاكل الناشئة عن هذه النظريات لها للقيام كيف يمكن لمفهوم فارغ مثل هذا أن يكون مفيدا في الممارسات الفعلية لل القانون. يجدر أيضًا السؤال عما إذا كان الشخص الاعتباري الاصطناعي حقًا نقية مفهوم كما يزعم أن يكون. أليس من الضروري أن تمتلئ فئة الشخص الاعتباري ، كأداة في تنظيم الحياة القانونية ، بمعنى ليس كذلك نقية أو محايدة ، وبالتالي تكتسب بالضرورة أهمية معيارية أو أخلاقية أو حتى سياسية؟ يبدو واضحًا أن بعض الاعتبارات الأخلاقية والميتافيزيقية – على الأقل 3 مستوحاة من Ngaire Naffine ، على الرغم من أنها تميز بين ثلاثة مواقف نظرية مختلفة.

تلك الضمنية – لا يمكن تجنبها عندما يتم إحياء المفهوم بشكل قانوني الحجج. وبوسعنا أن نطلق على النهج الثاني “القائم على الواقعية” في ظل الرغبة في فترة أفضل.

وتزعم النظريات الواقعية أن الشخص القانوني يتمتع بشخصيات ضرورية معينة. قد تعتبر طبيعية أو ، خاصة. ويتصف الشخص القانوني هنا من خلال الوضع ذي الصلة أخلاقيا وهو كونه إنسانياوتختلف المشاكل المتصلة بهذا الإطار النظري عن المشاكل المتصلة بالنظريات التحليلية. ما نوع الجدل العلمي المطلوب لتعريف “الشخص” بالإشارة إلى نفس الغموض

“الإنسان”؟ وهذا هو ما تجبر المحاكم على القيام به في بعض قضايا حقوق الإنسان على سبيل المثال، ويميل الجدل العلمي إلى التردد. وبطبيعة الحال، لأن من المفهوم أن يكون القاضي متردداً في تولي هذه المهمة بنفسه كما هو موضح سابقًا ، فإن الطريقة الأكثر شيوعًا للتعامل مع الاستخدام الفعال للأفراد في ارتكاب الجرائم هي الشكل العام ومن الضرورى اثبات الوعى بجريمه من خلال جريمه اخرى ، فمن الضروري لإثبات الوعي من هذا الاستخدام الفعال. لذلك ، لا ينطبق ارتكاب الجريمة من خلال الآخر إلا في حالة جرائم الرجال.

في معظم الحالات ، الشخص فكون مرتكب الجريمه يتم استخدام أداة من قبل الجاني يعتبر بريئا وكيل ، ولا تفرض عليه مسؤولية جنائية. التحليل ايضا ارتكاب جرائم من نوع اخر فى سياق جرائم القصد الجنائى في سياق الجرائم الجرمية وقد سبق وان تمت مناقشتها ومع ذلك ، فإن الشخص الذي يستخدم عن طريق الأدوات يمكن اعتباره أيضًا عميل شبه بريء مسؤول جنائيا عن الإهمال ، رغم أنه في في الوقت نفسه ، يكون مرتكب الجريمة مسؤولا جنائيا عن جريمة القصد الجنائى .

هذا هو الحال عندما يكون الإهمال وثيق الصلة بالجريمة من خلال آخر ، وهذا يكمل النقاش تجاهه. على سبيل المثال ، تدرك الممرضة في غرفة العمليات أن الشخص الذي هاجمها في الماضي على وشك إجراء عملية جراحية لها ، وقررت أنه يستحق ذلك حتى الموت. إنها تصيب الأدوات الجراحية بالبكتيريا القاتلة جراح أن الأدوات قد تم تعقيمها.

بعد ساعات قليلة من الجراحة ، يموت المريض نتيجة للإصابة. يشير التحليل القانوني للقضية إلى أن الممرضة هي من ارتكب جريمة قتل أخرى ، حيث استعمل الجراح من أجل ارتكب جريمة القتل. تعتمد المسؤولية الجنائية للجراح في هذه الحالة على حالته العقلية.

إذا كان عميلا بريئا ، فهو معفي من المجرم مسؤولية. ولكن إذا كان لديه واجب قانوني للتأكد من أن الصكوك لها تم تعقيمه ، فهو ليس عميلًا بريءًا تمامًا لأنه فشل في ذلك الوفاء بواجباته القانونية.

في الوقت نفسه ، ولأنه لم يكن على علم بالأدوات المصابة ، فهذه حالة من الإهمال.

وينبغي أن يكون على علم ، ويسمى أ شبه بريء وهكذا ، عندما يكون الشخص يستخدم أداة أخرى الشخص الذي يهمل فيما يتعلق بارتكاب الجريمة ، وهذا هو ارتكاب من خلال آخر ، ولكن كلا الشخصين مسؤولان جنائيا: مرتكب جريمة القصد الجنائى  (على سبيل المثال ، القتل) والآخر شخص بسبب جريمة إهمال (على سبيل المثال ، جريمة إهمال).

معطى أن أنظمة منظمة العفو الدولية قادرة على تشكيل الإهمال كعنصر عقلي ، و السؤال هو ما إذا كان يمكن أن تعمل كعملاء شبه الأبرياء.

القضية التي يمكن أن يكون فيها نظام الذكاء الاصطناعي شبه بريء هي حالة واحدة الذي مرتكب الجريمة (الإنسان ، شركة ، أو كيان بالنيابة) بشكل فعال يستخدم نظام منظمة العفو الدولية لارتكاب جريمة ، وعلى الرغم من أنه كان تستخدم آليا ، وكان نظام منظمة العفو الدولية الإهمال فيما يتعلق بارتكاب الجريمة. نظم منظمة العفو الدولية فقط التي هي قادرة على تحقيق العقلية وعلى الرغم من أن الأشخاص الطبيعيين والأشخاص الاعتباريين ظلوا لفترة طويلة لاعبا رئيسيا في نظامنا القانوني لم يكن هذا هو الحال دائمًا. الشركات الكبيرة والصغيرة ، يحق للمنظمات الخاصة والمنظمات الحكومية القيام بجميع أنواعها من الأفعال ككيانات قانونية ويمكن أن تكون مسؤولة عن الأشياء التي يقومون بها. لكن، في العصور الوسطى ، على سبيل المثال ، يمكن أن تكون الحيوانات مسؤولة أيضا عن يتطور تطور التكنولوجي في اتجاه ذكي مصطنع برامج ربما تتجسد في كل نوع من الأدوات المادية ومجموعة متنوعة من كيانات آلية بأشكال مجسمة أو أكثر يمكنها أن تؤدي مجموعة متنوعة من المهام.

إلى جانب الإنترنت الموسع أضعافا مضاعفة ، صنع القرار من قبل هؤلاء إن كيانات منظمة العفو الدولية ذات العواقب القانونية تزحف إلينا. النظر سواء يجب أن يكون لكيان أو روبوت ذكي صناعي يعمل بشكل مستقل بعض الشيء الذاتية القانونية أم لا ، سوف تعتمد على الضرورات الاجتماعية والاقتصادية و ليس أقلها ، القبول الاجتماعي والقانوني من قبل الجهات الفاعلة الأخرى. بعبارات أخرى، يمكن لمجتمع المستقبل العمل دون أي شكل من أشكال الشخصية القانونية للحكم الذاتي ، كيانات ذكية مصطنعة أم أنها “شرط لا غنى عنه؟”

من المهم النظر في نوع التفكير الذي سيتم تطبيقه لتحديد الوضع القانوني لمنظمة العفو الدولية والروبوتات. يمكن بناء هذه الحالة على زيادة طبقة من العناصر القانونية المطلوبة على أساس التطوير المستمر للحكم الذاتي وذكاء الروبوت. أو يمكن للمرء أن يحلل خصائص التيار لاعبين مع شخصية قانونية وتحديد العناصر التي سيكون من المرغوب فيه لإعطاء الروبوتات تلك الدرجة من الشخصية القانونية التي تعتبر مفيدة في المجتمع.

ويجري بالفعل تقديم مقترحات حذرة للامتثال للمستقبل والعثور عليه الحلول القانونية. ومع ذلك ، فإن الآثار القانونية الفعلية للمجتمع متكامل لمنظمة العفو الدولية يتم وضعها جانبا. على الرغم من أن البرلمان الأوروبي قبل اقتراحا بشأن القانون المدني.

المطلب الثانى :قواعدا لمسئوليه واسباب الضرر – 

  • لماذا من المهم للغاية تحديد شكل شخصية قانونية معينة للروبوتات؟

إذا يتصرف الروبوت بقصد تغيير الظروف القانونية ، سواء كانت مستقلة والمشاعر ، سواء كانت مفيدة حسب تعليمات شخص قانوني أو طبيعي آخر ، يجب أن يكون له أيضًا وضع قانوني معين يتجاوز وضع كائن قانوني. بالإضافة إلى ذلك ، نحن سوف تحتاج إلى العثور على شكل من أشكال المسؤولية التي في نهاية المطاف تناسب العملية مؤهلات ودور الروبوت في المجتمع. يجب اعتبار أنه من المحتمل أن تكون الروبوتات فيه مناطق المراقبة والأمن وكذلك في المجال الاستشاري وفي القطاع الصحي ، وكذلك في الخدمات الأكثر غرابة ، سوف تلعب دورا هاما دون سيطرة مباشرة من قبل الأشخاص الطبيعيين.

يجب التعرف على الأفعال من قبل أشخاص قانونيين آخرين بناءً على الثقة والقبول.

ف تقع مسؤولية الأشخاص الذين يؤدون أعمالًا قانونية تجاه الآخرين في نهاية المطاف على عاتق الأشخاص الاعتباريين أو مجموعة أو أفراد يمكن تحديدهم وحكومة ومسؤول وقادة سياسيين وممثلين معتمدين لطبيعي شخص. مع استخدام الروبوتات في تلك المناطق ، ستتحمل نفس المسؤولية عادة تتبع إلى نفس المجموعة وسيؤدي الروبوت إلى دور سياسة تحضيرية أو حتى دور تمثيلي و من المتصور أن يُعطى الروبوت أيضًا تفويضًا معينًا منسوبًا إليه لهم من قبل السلطات في القطاع العام لأداء واجبات محددة. يجب تحديد المسؤولية. القبض على المشتبه به من قبل “Robocop” أيضا أن تكون آمنة من الناحية القانونية. قد يمثل الأشخاص الاعتباريون والطبيعيون بواسطة روبوتات في مستقبل.

هذا وضع مختلف عن التمثيل القانوني للأشخاص الطبيعيين. هذا ممكن فقط عندما يتم تحديد الكفاءات المحددة ذات الصلة لأداء مهمة الروبوت. إسناد الكفاءات يجب أن يكون معترف بها بموجب القانون. عندها فقط سيكون هناك قبول قانوني موثوق به للقانون تأثير الأفعال التي يؤديها الروبوت.

قد يكون لإجراءات النظام الآلي آثار قانونية. المتقدمة يفي روبوت البحث بروبوتات أخرى وسيتبادل بعض الرموز التي قد تؤدي إلى اتفاقية لحجز مقعد أو شراء منتج أو خدمة. سوف يدخل الروبوت إمكانية قبول اتفاقية إلكترونية من قبل “الطرفين” الإلكترونيين بدون أي تدخل أو حتى تأكيد من قبل شخص طبيعي. يمكن لهذا “الزاحف بوت” لا يزال يعتبر كائنًا إذا كان لديه نوع من الذاتية القانونية؟ يتطلب ذلك توضيح واضح للظروف القانونية ، ويفضل أن يكون ذلك في القانون والعقد ، الاحكام والشروط العامه والحقيقه حتى اليوم ، حقيقة أن الأجهزة والأجهزة الفردية كانت تستخدم ل الغرض جعل مسألة الشخصية القانونية غير ذي صلة. جراح باستخدام سكين لجعل شق في المريض وخطأ لا يمكن إلقاء اللوم على السكين أو منتج السكين للخطأ الذي ارتكبه الجراح (إلا في حالة وجود خطأ مادي).

في أوقات الحرب ، لا يمكن تحميل منتج الأسلحة المسؤولية عن الخسائر الناجمة عن الحرب. ومع ذلك ، فإن القائد الأعلى ، ولكن المرؤوسين أيضا ، قد يكون مسؤولا عن جرائم الحرب المحتملة. ولكن ماذا يحدث عندما لم يعد يتم توجيه هذه الأسلحة أو توجيهها من قبل الأفراد؟ أو ، إذا كانت توفر المعلومات التي ستحدد عملها دون إنسان تدخل قضائي؟ إذا تم تصميم طائرة بدون طيار للتعرف على خطر وشيك وبعد ذلك يدمر هذا الخطر دون مزيد من التعليمات أو تدخل الأفراد؟ إلى عن على الآن ، يحدث التدمير بفعل شخص طبيعي باستخدام ذراع التحكم ولكن حتى في هذه الحالة ، يعتمد القرار على البيانات والمخابرات الجارية وراء المستخدم. عدة مرات ، صدرت تحذيرات من قبل العلماء المعنيين و قادة الصناعة فيما يتعلق بمخاطر أسلحة الذكاء الاصطناعي المستقلة – ما يسمى “الروبوتات القاتلة” – في خطاب مفتوح من معهد مستقبل الحياة إلى الأمم المتحدة اتفاقية أسلحة تقليدية معينة ما هو مؤهل الحالة المذكورة أعلاه إذا كان الجراح لا يقوم بإجراء عملية جراحية ، ولكن لجأ إلى البيانات المعقدة التي قدمتها أداة الليزر التي يشمل جميع المعلومات الطبية ، بما في ذلك وثائق المريض؟ أو ، إذا كان الكمبيوتر أو الروبوت الاجتماعي يحدد الأدوية التي يحتاجها المريض ، بناءً على سجلات المرضى في قاعدة البيانات؟ لماذا يجب ألا يكون نظام الذكاء الاصطناعى المستقل كابا يلي  ذلك لإعلان شهادة وفاة صالحة. يجب أن يكون هذا فعلًا قانونيًا مقبولًا قانونيًا الآثار.

هل هناك فرق بين التشغيل الإلكتروني بشكل مستقل النظام كلاعب مستقل واستخدام هذا النظام كأداة؟ بعد كل شيء ، في في كلتا الحالتين ، تؤدي الأنظمة أنشطة لها عواقب قانونية.

سيتم تنفيذ الأعمال القانونية من قبل أشخاص ، كونهم كيانات قانونية. الأنظمة الآلية ، إلكترونيا أو غير ذلك ، تستخدم بشكل متزايد في جميع أنواع العلاقات داخل مجتمعنا العالمي. الخوارزميات أمر التداول في البورصة وشراء وبيع في غضون ميلي ثانية. حقيقة أن هذه الأنظمة ، والروبوتات والأجهزة الأخرى يمكن أن تتصرف بشكل مستقل وسوف تخلق تغييرات في العلاقات القانونية سيكون لها في نهاية المطاف تأثير على موقف الأشخاص الاعتباريين أو الأطراف أو الأطراف الثالثة. ما هو ، في النهاية ، الفرق بين العامل في الشكل البشري ، الطبيعي الشخص وممثل الروبوت؟

ففي مرحلة القيادة للشخص الطبيعي أو مجموعة من الأشخاص ، وتحديد الهوية اللاعب المسؤول (اللاعبين) عادة لا يمثل مشكلة. الفرق في وظيفية التنفيذ غير مناسب ايضا . استخدام محركات البحث للعثور على تذاكر ، طائرات بدون طيار ل تسليم الحزم إلى عميل أو إرسال صواريخ على عدو متصور لا يوجد فرق قانوني.

إذا كانت المسؤولية العملية والقانونية يمكن إرجاعها إلى تحديد قانوني لا يوجد أي تغيير ضروري في الوضع القانوني للممثل العملي. الروبوت أو يبقى نظام الذكاء الاصطناعى أداة وموضوعا قانونيا يظل الكيان القانوني من أجله مسؤول.

بالإضافة إلى ذلك ، يتضمن ذلك الترتيبات المتعلقة بالمنتج المسؤولية في حالة وجود منتج معيب.

بالنسبة لهذا الجانب ، أشير إلى الاستثناء الوارد في المادة 185 من القانون المدني الهولندي حيث ذكر أن الطرف الذي أحضر منتج إلى السوق الذي ، في حالة المعرفة العلمية والتقنية في الوقت الذي طرحه المنتج في التداول ، لم يكن من الممكن اكتشاف وجود الخلل للمنتج ، لن تكون مسؤولة عن الخلل.

ومع ذلك ، يتم استبعاد هذا الاستثناء من جانب منتجي السيارات العاملة المستقلة أو شبه المستقلة مثل سيارة Google و Volvo و Tesla. سيكون كذلك ليس من الحكمة ، في هذا الوقت ومن وجهة نظر العلاقات العامة ، إذا كان هذا الخطر من شأنه غير مقبول من قبل المنتجين. فيما يتعلق بالمسؤولية ، بناء المسؤولية عن المخاطر ودفع الأضرار من نوع من المؤسسات العامة يمكن أن يكون حلا و إزالة “تأثير تقشعر لها الأبدان” لمواصلة تطوير الروبوتات التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

حتى في حالة الأشخاص الطبيعيين ، كممثل منسوب يفقدهم السبب والعقلانية ، يمكن إلغاء الإجراءات باعتبارها اضطرابًا غير متعمد النظام. يمكن للمرء رسم موازية مع الروبوت في الحالات الأخيرة ؛ يمكن أن تقلل مسؤولية الفرد المبادر في استخدام هذا النظام أو يمكن أن تبرأ جميع أطراف الدعوى القانونية ، وربما حتى الروبوت نفسه ، إذا كان الروبوت لديه قانوني المسئولية.

هذا الرأي أشاركه مع Voulon ، بمعنى أن أي أثر قانوني هو الذي تسبب بواسطة نظام الحكم الذاتي وأقل استقلالا يجب أن يعزى إلى الطبيعية أو الشخص الاعتباري الذي اتخذ قرار تكليف النظام في خدمته ف الروبوتات تؤثر على مبادئ النظم القانونية الحالية في شقين الطريقة. أولا ، التكنولوجيا الروبوتية تحفز عددا من الثغرات القانونية الحرجة ، التي هي مناسبة في مجال القانون الجنائي ، على سبيل المثال ، توظيف الحكم الذاتي جنود الروبوت في المعركة. إلى حد كبير ، كريستوف هينز ، المقرر الخاص المعني عمليات الإعدام خارج نطاق القضاء ، التي حث عليها في تقريره لعام 2010 إلى الأمم المتحدة الجمعية أن الأمين العام بان كي مون عقد مجموعة من الخبراء من أجل معالجة “السؤال الأساسي حول ما إذا كان ينبغي للقوة المميتة من أي وقت مضى أن تكون آلية بالكامل. ” من ناحية أخرى ، علينا أن تحديد ما إذا كان سلوك الروبوتات يقع داخل ثغرات النظام ، مما يستلزم تدخل المشرعين على الصعيدين الوطني والوطني المستويات الدولية ، كما فعلوا في أوائل التسعينيات عند إنشاء جديدة فئة جرائم الكمبيوتر.

إلى جانب الحصانة العسكرية والسياسية السلطات لاستخدام الروبوتات في المعركة ، والطبقة الثانية من الحالات الصعبة المخاوف كيف يؤثر الاستقلالية المتزايدة للروبوتات على المفاهيم الأساسية للنظام ، هكذا كما المعقولية ، والقدرة على التنبؤ ، أو التوقع ، والتي الفرد خطأ يعتمد. هذه هي فئة القضايا الصعبة التي يشاركها المحامون الجنائيون خبراء في قانون الأضرار والعقود.

التوصيات :

مع هذا الانتشار الواسع سوف تزيد الجرائم المتعلقة بالروبورتات والذكاء الاصطناعى ، وبالتالى كان ضرورياً بحث المسئولية الجنائية عن الجرائم المرتكبة عن طريقة، وعلى من ستقع المسئولية، لتحديد المرتكب الحقيقى حتى تطبق عليه العقوبة القانونية والمسئوليه عما تفعلة الروبورتات وقواعد المسئوليه التقصيريه والضرر من أجل رد تلك الوقائع إلى القوانين التى تجرمها وذلك يستلزم سن تشريعات تنظم انتاج وتطوير تقنيات الذكاء الاصطناعي للوصول لتصور قانونى يسمح بالمحاسبة الجنائية.

Bibliography :

franz alexander & hugo staub, the criminal, the judge, and the public
(1931)

franz alexander, our age of unreason: a study of the irrational forces
in social life (rev. ed. 1971)

Andrew G. Brooks & Ronald C. Arkin, Behavioral Overlays for Non-Verbal
Communication Expression on a Humanoid Robot
, 22 auton. robots 55
(2007)

sir edward coke, institutions of the laws of england — third part (6th ed.
1681, 1817, 2001)

john finnis, natural law and natural rights (1980)

Aristotle. 1984. Metaphysics. Trans. W.D. Ross. In The complete works of Aristotle,
ed. J. Barnes, vol. 2, 155-2-1728. Princeton: Princeton University Press.

Allen, Tom, and Robin Widdison. 1996. Can computers make contracts? Harvard
Journal of Law & Technology 
9(1): 26–52

Reynolds, Carson, and Masathosi Ishikawa. 2007. Robotic thugs. In 2007 Ethicomp
proceedings
, 487–492. Tokyo: Global e-SCM Research Center and Meiji University.
Rezza, Giovanni. 2006. The principle of precaution-based prevention: A Popperian paradox? European Journal of Public Health 16(6): 576–577.

. 2012. A2J Author. www.kentlaw.iit.edu/institutes-centers/center-for-access-to-justice-andtechnology/a2j-author (accessed January 30, 2015).

Beck, S. 2014. Emerging Technology Shapes Future of Law. www.americanlawyer.com/id=
1202664266769/Emerging-Technology-Shapes-Future-of-Law (accessed September 9,
2014).

Gardner, Anne vdL. 1987. An Artificial Intelligence Approach to Legal Reasoning. Cambridge,
MA: MIT Press

McCarty, L. Thorne. 2007. Deep semantic interpretations of legal texts. Pages 217–24 of:
Proceedings of the 11th International Conference on Artificial Intelligence and Law. New
York, NY: ACM.

رابط المصدر:

حول الكاتب

مقالات ذات صله

الرد

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

W P L O C K E R .C O M