Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
مقالات عامة

يتم استخدام الذكاء الاصطناعي بالفعل في النظام القانوني

مجلة المذنب نت متابعات عالمية:

أصبح الذكاء الاصطناعي (AI) جزءًا من حياتنا اليومية بحيث يصعب تجنبه – حتى لو لم نتعرف عليه.

في حين أن ChatGPT واستخدام الخوارزميات في وسائل التواصل الاجتماعي يحظيان باهتمام كبير ، فإن المجال المهم الذي يعد فيه الذكاء الاصطناعي بأن يكون له تأثير هو القانون.

قد تبدو فكرة تقرير منظمة العفو الدولية عن الذنب في الإجراءات القانونية بعيدة المنال ، لكنها فكرة نحتاج الآن إلى النظر فيها بجدية.

هذا لأنه يثير أسئلة حول توافق الذكاء الاصطناعي مع إجراء المحاكمات العادلة. سن الاتحاد الأوروبي تشريعات مصممة للتحكم في كيفية استخدام الذكاء الاصطناعي في القانون الجنائي وكيف لا يمكن استخدامه.

في أمريكا الشمالية ، خوارزميات مصممة لدعم المحاكمات العادلة قيد الاستخدام بالفعل. وتشمل هذه البرامج Compas وتقييم السلامة العامة (PSA) وأداة تقييم المخاطر قبل المحاكمة (PTRA). في نوفمبر 2022 ، نشر مجلس اللوردات تقريرًا نظر في استخدام تقنيات الذكاء الاصطناعي في نظام العدالة الجنائية في المملكة المتحدة.

الخوارزميات الداعمة

من ناحية ، سيكون من الرائع أن نرى كيف يمكن للذكاء الاصطناعي أن يسهل العدالة بشكل كبير على المدى الطويل ، مثل خفض التكاليف في خدمات المحاكم أو التعامل مع الإجراءات القضائية المتعلقة بالجرائم البسيطة. يمكن لأنظمة الذكاء الاصطناعي أن تتجنب المغالطات النموذجية لعلم النفس البشري ويمكن أن تخضع لضوابط صارمة. بالنسبة للبعض ، قد يكونون أكثر حيادية من القضاة البشر.

أيضًا ، يمكن للخوارزميات إنشاء بيانات لمساعدة المحامين على تحديد السوابق في السوابق القضائية ، والتوصل إلى طرق لتبسيط الإجراءات القضائية ، ودعم القضاة.

من ناحية أخرى ، يمكن أن تؤدي القرارات الآلية المتكررة من الخوارزميات إلى نقص الإبداع في تفسير القانون ، مما قد يؤدي إلى إبطاء أو وقف التطور في النظام القانوني.

في الولايات المتحدة ، تم استخدام الخوارزميات لحساب خطر العودة إلى الإجرام ، والاستمرار في ارتكاب الجرائم بعد صدور أحكام سابقة.
بريان جاكسون / شاترستوك

يجب أن تتوافق أدوات الذكاء الاصطناعي المصممة للاستخدام في المحاكمة مع عدد من الصكوك القانونية الأوروبية ، التي تحدد معايير احترام حقوق الإنسان. وتشمل هذه الإجراءات المفوضية الأوروبية لكفاءة العدالة ، والميثاق الأخلاقي الأوروبي بشأن استخدام الذكاء الاصطناعي في الأنظمة القضائية وبيئتها (2018) ، والتشريعات الأخرى التي تم سنها في السنوات الماضية لتشكيل إطار عمل فعال بشأن استخدام وحدود الذكاء الاصطناعي في العدالة الجنائية. ومع ذلك ، نحتاج أيضًا إلى آليات فعالة للرقابة ، مثل القضاة البشريين واللجان.

يعد التحكم في الذكاء الاصطناعي وإدارته أمرًا صعبًا ويشمل مجالات مختلفة من القانون ، مثل قانون حماية البيانات وقانون حماية المستهلك وقانون المنافسة ، بالإضافة إلى العديد من المجالات الأخرى مثل قانون العمل. على سبيل المثال ، تخضع القرارات التي تتخذها الآلة مباشرةً للائحة العامة لحماية البيانات (GDPR) ، اللائحة العامة لحماية البيانات ، بما في ذلك المتطلبات الأساسية للعدالة والمساءلة.

توجد أحكام في القانون العام لحماية البيانات (GDPR) تمنع تعرض الأشخاص فقط للقرارات الآلية ، دون تدخل بشري. وكان هناك نقاش حول هذا المبدأ في مجالات أخرى من القانون.

القضية مطروحة علينا بالفعل: في الولايات المتحدة ، تم استخدام أدوات “تقييم المخاطر” للمساعدة في التقييمات السابقة للمحاكمة التي تحدد ما إذا كان يجب الإفراج عن المدعى عليه بكفالة أو احتجازه في انتظار المحاكمة.

أحد الأمثلة على ذلك هو خوارزمية كومباس في الولايات المتحدة ، والتي صُممت لحساب خطر العودة إلى الإجرام – خطر الاستمرار في ارتكاب الجرائم حتى بعد معاقبتك. ومع ذلك ، كانت هناك اتهامات – نفتها بشدة الشركة التي تقف وراءها – بأن خوارزمية كومباس بها تحيزات عنصرية غير مقصودة.

في عام 2017 ، حُكم على رجل من ولاية ويسكونسن بالسجن لمدة ست سنوات في حكم يستند جزئيًا إلى درجته في كومباس. تعتبر الشركة الخاصة التي تمتلك Compas أن خوارزميتها سر تجاري. لذلك لا يُسمح للمحاكم ولا للمدعى عليهم بفحص الصيغة الرياضية المستخدمة.

نحو تغييرات مجتمعية؟

نظرًا لأن القانون يعتبر علمًا إنسانيًا ، فمن المناسب أن تساعد أدوات الذكاء الاصطناعي القضاة والممارسين القانونيين بدلاً من استبدالهم. كما هو الحال في الديمقراطيات الحديثة ، تتبع العدالة فصل السلطات. هذا هو المبدأ الذي يتم بموجبه تقسيم مؤسسات الدولة ، مثل السلطة التشريعية التي تضع القانون ، والسلطة القضائية ، ونظام المحاكم التي تطبق القانون ، بشكل واضح. تم تصميم هذا لحماية الحريات المدنية والحماية من الاستبداد.

يمكن أن يؤدي استخدام الذكاء الاصطناعي في قرارات المحاكمة إلى زعزعة توازن القوى بين الهيئة التشريعية والسلطة القضائية من خلال تحدي القوانين البشرية وعملية صنع القرار. وبالتالي ، يمكن أن يؤدي الذكاء الاصطناعي إلى تغيير في قيمنا.

وبما أنه يمكن استخدام جميع أنواع البيانات الشخصية لتحليل الأفعال البشرية والتنبؤ بها والتأثير عليها ، فإن استخدام الذكاء الاصطناعي يمكن أن يعيد تعريف ما يعتبر سلوكًا خاطئًا وصحيحًا – ربما بدون فروق دقيقة.

من السهل أيضًا تخيل كيف سيصبح الذكاء الاصطناعي ذكاءً جماعيًا. ظهر الذكاء الاصطناعي الجماعي بهدوء في مجال الروبوتات. يمكن للطائرات بدون طيار ، على سبيل المثال ، التواصل مع بعضها البعض للطيران في تشكيل. في المستقبل ، يمكننا تخيل المزيد والمزيد من الآلات التي تتواصل مع بعضها البعض لإنجاز جميع أنواع المهام.

قد يشير إنشاء خوارزمية لحياد العدالة إلى أننا نعتبر أن الخوارزمية أكثر قدرة من القاضي البشري. قد نكون مستعدين حتى للثقة في هذه الأداة بمصير حياتنا. ربما في يوم من الأيام ، سوف نتطور إلى مجتمع مشابه لذلك الذي تم تصويره في سلسلة روايات الخيال العلمي The Robot Cycle ، بواسطة Isaac Asimov ، حيث تتمتع الروبوتات بذكاء مماثل للبشر وتتحكم في جوانب مختلفة من المجتمع.

العالم الذي يتم فيه تفويض القرارات الرئيسية للتكنولوجيا الجديدة يثير الخوف لدى كثير من الناس ، ربما لأنهم قلقون من أن ذلك قد يمحو ما يجعلنا بشراً بشكل أساسي. ومع ذلك ، في الوقت نفسه ، يعد الذكاء الاصطناعي أداة قوية محتملة لجعل حياتنا اليومية أسهل.

في التفكير البشري ، لا يمثل الذكاء حالة من الكمال أو المنطق المعصوم من الخطأ. على سبيل المثال ، تلعب الأخطاء دورًا مهمًا في السلوك البشري. إنها تسمح لنا بالتطور نحو حلول ملموسة تساعدنا على تحسين ما نقوم به. إذا كنا نرغب في تمديد استخدام الذكاء الاصطناعي في حياتنا اليومية ، فسيكون من الحكمة الاستمرار في تطبيق المنطق البشري للتحكم فيه.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى