sakila movies lambotube.mobi sex sex videos waxtube hindipornsite.com black ambush www.phonerotica..com chineseporntrends.com funvidporn xnxx indian women barzoon.info indeyan sax مومس مصرية xvideoz.mobi سكس كرينا كبور نيك الكلاب pornwap.pro ولدبينيك امه filmfree4u diabloporn.mobi tamilxxxaunty kanga hentai hentairips.com hentai prostitution فيلم سكس قصة ahpornom.net سكس فلاحة tamil maja videos pakistanisexporn.com kidnap sex sandalee indianhardcoreporn.com hindi xxx film new indian xnxx palimas.mobi saxy vidyo locanto bangalore women seeking men cumshotporntrends.com arabic sex video dytto dancer juliamovies.mobi khatrimaza pro سكس علنى arabeng.org سكس الجدة مترجم
مقالات عامة

كيف يمكن للكونغرس تنظيم الذكاء الاصطناعي؟ نصب حواجز حماية تضمن المساءلة ومعالجة القوة الاحتكارية

مجلة المذنب نت متابعات عالمية:

الوجبات الجاهزة:

  • تبدو الوكالة الفيدرالية الجديدة لتنظيم الذكاء الاصطناعي مفيدة ، لكنها قد تتأثر بشكل غير ملائم بصناعة التكنولوجيا. بدلاً من ذلك ، يمكن للكونغرس أن يشرّع المساءلة.

  • بدلاً من ترخيص الشركات لإطلاق تقنيات الذكاء الاصطناعي المتقدمة ، يمكن للحكومة أن تمنح تراخيص لمراجعي الحسابات وتدفع الشركات إلى إنشاء مجالس مراجعة مؤسسية.

  • لم تحقق الحكومة نجاحًا كبيرًا في كبح احتكارات التكنولوجيا ، لكن متطلبات الإفصاح وقوانين خصوصية البيانات يمكن أن تساعد في التحقق من قوة الشركات.


حث الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، المشرعين على النظر في تنظيم الذكاء الاصطناعي أثناء شهادته أمام مجلس الشيوخ في 16 مايو 2023. وتثير هذه التوصية السؤال عما سيأتي بعد ذلك للكونغرس. الحلول التي اقترحها ألتمان – إنشاء وكالة تنظيمية للذكاء الاصطناعي تتطلب ترخيصًا للشركات – مثيرة للاهتمام. لكن ما اقترحه الخبراء الآخرون في نفس اللجنة لا يقل أهمية عن ذلك على الأقل: المطالبة بالشفافية في بيانات التدريب وإنشاء أطر واضحة للمخاطر المتعلقة بالذكاء الاصطناعي.

هناك نقطة أخرى لم تُذكر وهي أنه نظرًا لاقتصاديات بناء نماذج ذكاء اصطناعي واسعة النطاق ، ربما تشهد الصناعة ظهور نوع جديد من احتكار التكنولوجيا.

بصفتي باحثًا يدرس وسائل التواصل الاجتماعي والذكاء الاصطناعي ، أعتقد أن اقتراحات ألتمان قد أبرزت قضايا مهمة ولكنها لا تقدم إجابات في حد ذاتها. قد يكون التنظيم مفيدًا ، لكن بأي شكل؟ الترخيص أيضا له معنى ، ولكن لمن؟ وأي جهد لتنظيم صناعة الذكاء الاصطناعي يجب أن يأخذ في الحسبان القوة الاقتصادية للشركات وتأثيرها السياسي.

وكالة لتنظيم الذكاء الاصطناعي؟

بدأ المشرعون وصناع السياسات في جميع أنحاء العالم بالفعل في معالجة بعض القضايا التي أثيرت في شهادة ألتمان. يعتمد قانون الذكاء الاصطناعي في الاتحاد الأوروبي على نموذج المخاطر الذي يخصص تطبيقات الذكاء الاصطناعي لثلاث فئات من المخاطر: غير مقبول ، وعالي الخطورة ، ومخاطر منخفضة أو قليلة. يدرك هذا التصنيف أن أدوات التقييم الاجتماعي من قبل الحكومات والأدوات الآلية للتوظيف تشكل مخاطر مختلفة عن تلك الناجمة عن استخدام الذكاء الاصطناعي في عوامل تصفية البريد العشوائي ، على سبيل المثال.

وبالمثل ، يمتلك المعهد الوطني الأمريكي للمعايير والتكنولوجيا إطارًا لإدارة مخاطر الذكاء الاصطناعي تم إنشاؤه بمساهمة مكثفة من العديد من أصحاب المصلحة ، بما في ذلك غرفة التجارة الأمريكية واتحاد العلماء الأمريكيين ، فضلاً عن الجمعيات التجارية والمهنية الأخرى ، وشركات التكنولوجيا و مراكز البحوث.

أصدرت الوكالات الفيدرالية مثل لجنة تكافؤ فرص العمل ولجنة التجارة الفيدرالية بالفعل إرشادات بشأن بعض المخاطر الكامنة في الذكاء الاصطناعي. لجنة سلامة المنتجات الاستهلاكية والوكالات الأخرى لها دور تلعبه أيضًا.

بدلاً من إنشاء وكالة جديدة تتعرض لخطر التعرض للخطر من قبل صناعة التكنولوجيا التي تهدف إلى تنظيمها ، يمكن للكونغرس دعم تبني إطار إدارة مخاطر NIST الخاص والعام وتمرير فواتير مثل قانون المساءلة الخوارزمية. سيكون لذلك تأثير في فرض المساءلة ، مثل قانون ساربينز أوكسلي وغيره من اللوائح التي غيرت متطلبات إعداد التقارير للشركات. يمكن للكونغرس أيضًا اعتماد قوانين شاملة حول خصوصية البيانات.

يجب أن يشمل تنظيم الذكاء الاصطناعي التعاون بين الأوساط الأكاديمية والصناعة وخبراء السياسة والوكالات الدولية. وقد شبه الخبراء هذا النهج بالمنظمات الدولية مثل المنظمة الأوروبية للأبحاث النووية ، والمعروفة باسم CERN ، واللجنة الحكومية الدولية المعنية بتغير المناخ. تتم إدارة الإنترنت من قبل هيئات غير حكومية تضم المنظمات غير الربحية والمجتمع المدني والصناعة وصانعي السياسات ، مثل مؤسسة الإنترنت للأسماء والأرقام المخصصة والجمعية العالمية لتقييس الاتصالات. تقدم هذه الأمثلة نماذج للصناعة وصانعي السياسات اليوم.

https://www.youtube.com/watch؟v=JL5OFXeXenA

يشرح العالم المعرفي ومطور الذكاء الاصطناعي غاري ماركوس الحاجة إلى تنظيم الذكاء الاصطناعي.

ترخيص مدققي الحسابات وليس الشركات

على الرغم من أن ألتمان من OpenAI اقترح أنه يمكن ترخيص الشركات لإطلاق تقنيات الذكاء الاصطناعي للجمهور ، فقد أوضح أنه كان يشير إلى الذكاء الاصطناعي العام ، مما يعني أن أنظمة الذكاء الاصطناعي المستقبلية المحتملة ذات الذكاء البشري يمكن أن تشكل تهديدًا للبشرية. سيكون ذلك أقرب إلى ترخيص الشركات للتعامل مع تقنيات أخرى يحتمل أن تكون خطرة ، مثل الطاقة النووية. لكن الترخيص يمكن أن يلعب دورًا جيدًا قبل أن يتحقق مثل هذا السيناريو المستقبلي.

يتطلب التدقيق الحسابي الاعتماد ومعايير الممارسة والتدريب المكثف. إن طلب المساءلة ليس مجرد مسألة ترخيص للأفراد ولكنه يتطلب أيضًا معايير وممارسات على مستوى الشركة.

يؤكد خبراء عدالة الذكاء الاصطناعي أن قضايا التحيز والإنصاف في الذكاء الاصطناعي لا يمكن معالجتها بالطرق التقنية وحدها ولكنها تتطلب ممارسات أكثر شمولاً لتخفيف المخاطر مثل اعتماد مجالس مراجعة مؤسسية للذكاء الاصطناعي. تساعد مجالس المراجعة المؤسسية في المجال الطبي على دعم الحقوق الفردية ، على سبيل المثال.

وبالمثل ، اعتمدت الهيئات الأكاديمية والجمعيات المهنية معايير الاستخدام المسؤول للذكاء الاصطناعي ، سواء كانت معايير تأليف للنص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أو معايير لمشاركة البيانات بوساطة المريض في الطب.

إن تعزيز القوانين الحالية بشأن سلامة المستهلك وخصوصيته وحمايته مع إدخال معايير المساءلة الحسابية من شأنه أن يساعد في إزالة الغموض عن أنظمة الذكاء الاصطناعي المعقدة. من المهم أيضًا إدراك أن زيادة المساءلة والشفافية في البيانات قد تفرض قيودًا جديدة على المؤسسات.

دعا علماء خصوصية البيانات وأخلاقيات الذكاء الاصطناعي إلى “الإجراءات التكنولوجية الواجبة” وأطر العمل للتعرف على أضرار العمليات التنبؤية. يستدعي الاستخدام الواسع النطاق لعملية صنع القرار المدعومة بالذكاء الاصطناعي في مجالات مثل التوظيف والتأمين والرعاية الصحية متطلبات الترخيص والتدقيق لضمان عدالة الإجراءات وضمانات الخصوصية.

ومع ذلك ، فإن المطالبة بأحكام المساءلة هذه يتطلب نقاشًا قويًا بين مطوري الذكاء الاصطناعي وواضعي السياسات والمتأثرين بالنشر الواسع للذكاء الاصطناعي. في غياب ممارسات مساءلة خوارزمية قوية ، يكمن الخطر في عمليات تدقيق ضيقة تعزز مظهر الامتثال.

احتكارات الذكاء الاصطناعي؟

ما كان مفقودًا أيضًا في شهادة ألتمان هو مدى الاستثمار المطلوب لتدريب نماذج الذكاء الاصطناعي واسعة النطاق ، سواء كانت GPT-4 ، والتي تعد أحد أسس ChatGPT ، أو منشئ النص إلى الصورة Stable Diffusion. فقط عدد قليل من الشركات ، مثل Google و Meta و Amazon و Microsoft ، هي المسؤولة عن تطوير أكبر نماذج اللغات في العالم.

نظرًا لغياب الشفافية في بيانات التدريب التي تستخدمها هذه الشركات ، حذر خبراء أخلاقيات الذكاء الاصطناعي تيمنيت جيبرو وإميلي بندر وآخرون من أن الاعتماد على نطاق واسع لمثل هذه التقنيات دون إشراف مماثل يخاطر بتضخيم تحيز الآلة على نطاق مجتمعي.

من المهم أيضًا الاعتراف بأن بيانات التدريب الخاصة بأدوات مثل ChatGPT تتضمن العمل الفكري لمجموعة من الأشخاص مثل المساهمين في Wikipedia والمدونين ومؤلفي الكتب الرقمية. ومع ذلك ، فإن الفوائد الاقتصادية من هذه الأدوات تعود فقط على شركات التكنولوجيا.

قد يكون إثبات قوة احتكار شركات التكنولوجيا أمرًا صعبًا ، كما أوضحت قضية مكافحة الاحتكار التي رفعتها وزارة العدل ضد شركة Microsoft. أعتقد أن الخيارات التنظيمية الأكثر جدوى للكونغرس لمعالجة الأضرار الخوارزمية المحتملة من الذكاء الاصطناعي قد تكون تعزيز متطلبات الإفصاح لشركات الذكاء الاصطناعي ومستخدمي الذكاء الاصطناعي على حد سواء ، والحث على الاعتماد الشامل لأطر تقييم مخاطر الذكاء الاصطناعي ، والمطالبة بعمليات تحمي البيانات الفردية الحقوق والخصوصية.


تعرف على ما تحتاج لمعرفته حول الذكاء الاصطناعي من خلال الاشتراك في سلسلة نشراتنا الإخبارية المكونة من أربعة رسائل بريد إلكتروني يتم تسليمها على مدار أسبوع. يمكنك قراءة جميع قصصنا حول الذكاء الاصطناعي التوليدي في TheConversation.com.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى
Immediate Matrix