Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
مقالات عامة

الذكاء الاصطناعي المتقدم مثير ، لكنه خطير للغاية في أيدي المجرمين

مجلة المذنب نت متابعات عالمية:

ستبلغ قيمة صناعة الذكاء الاصطناعي التوليدية حوالي 22 تريليون دولار أسترالي بحلول عام 2030 ، وفقًا لـ CSIRO. يمكن لهذه الأنظمة – التي يعد ChatGPT الأكثر شهرة منها حاليًا – كتابة المقالات والرموز ، وإنشاء الموسيقى والأعمال الفنية ، وإجراء محادثات كاملة. ولكن ماذا يحدث عندما يتحولون إلى استخدامات غير قانونية؟

في الأسبوع الماضي ، هز مجتمع البث عنوان رئيسي يرتبط بإساءة استخدام الذكاء الاصطناعي التوليدي. أصدر Atrioc ، أحد مشاهير Twitch ، مقطع فيديو اعتذارًا ، بعيون دامعة ، بعد أن تم القبض عليه وهو يشاهد مواد إباحية مع الوجوه المتراكبة لنساء أخريات.

كانت تقنية “deepfake” اللازمة لفوتوشوب رأس أحد المشاهير على جسد ممثل إباحي موجودة منذ فترة ، لكن التطورات الأخيرة جعلت اكتشافها أكثر صعوبة.

وهذا هو غيض من فيض. في الأيدي الخطأ ، يمكن أن يتسبب الذكاء الاصطناعي التوليدي في أضرار لا توصف. هناك الكثير الذي سنخسره ، إذا فشلت القوانين واللوائح في مواكبة ذلك.

https://www.youtube.com/watch؟v=cQ54GDm1eL0

يمكن استخدام نفس الأدوات المستخدمة في إنشاء مقاطع فيديو إباحية مزيفة لتزييف خطاب رئيس الولايات المتحدة. الائتمان: Buzzfeed.


اقرأ المزيد: يتوفر إنشاء تحويل النص إلى صوت هنا. قد تكون صناعة الموسيقى واحدة من أكبر اضطرابات الذكاء الاصطناعي


من الجدل إلى الجريمة الصريحة

في الشهر الماضي ، تعرض تطبيق Lensa للذكاء الاصطناعي لانتقادات لأنه سمح لنظامه بإنشاء صور عارية تمامًا ومثيرة للجنس المفرط من لقطات رأس المستخدمين. المثير للجدل ، أنه أيضًا بياض بشرة النساء الملونات وجعل ملامحهن أكثر أوروبية.

كانت ردة الفعل سريعة. ولكن ما يتم تجاهله نسبيًا هو الإمكانات الهائلة لاستخدام الذكاء الاصطناعي الفني في عمليات الاحتيال. في الطرف البعيد من الطيف ، هناك تقارير عن قدرة هذه الأدوات على تزوير بصمات الأصابع ومسح الوجه (الطريقة التي يستخدمها معظمنا لقفل هواتفنا).

يجد المجرمون بسرعة طرقًا جديدة لاستخدام الذكاء الاصطناعي التوليدي لتحسين عمليات الاحتيال التي يرتكبونها بالفعل. يأتي إغراء الذكاء الاصطناعي التوليدي في عمليات الاحتيال من قدرته على العثور على أنماط في كميات كبيرة من البيانات.

شهد الأمن السيبراني زيادة في “الروبوتات السيئة”: البرامج الآلية الخبيثة التي تحاكي السلوك البشري لارتكاب الجرائم. سوف يجعل الذكاء الاصطناعي التوليدي هذه أكثر تعقيدًا ويصعب اكتشافها.

هل تلقيت من قبل نصًا احتياليًا من “مكتب الضرائب” يدعي أن لديك استردادًا في انتظارك؟ أو ربما تلقيت مكالمة تزعم أن هناك مذكرة توقيف لاعتقالك؟

في مثل هذه الحيل ، يمكن استخدام الذكاء الاصطناعي التوليفي لتحسين جودة النصوص أو رسائل البريد الإلكتروني ، مما يجعلها أكثر تصديقًا. على سبيل المثال ، شهدنا في السنوات الأخيرة استخدام أنظمة الذكاء الاصطناعي لانتحال شخصيات مهمة في هجمات “انتحال الصوت”.

ثم هناك الحيل الرومانسية ، حيث يتظاهر المجرمون بأنهم مصالح رومانسية ويطلبون من أهدافهم المال لمساعدتهم على الخروج من الضائقة المالية. هذه الحيل منتشرة بالفعل وغالبًا ما تكون مربحة. يمكن أن يساعد تدريب الذكاء الاصطناعي على الرسائل الفعلية بين الشركاء الحميمين في إنشاء روبوت محادثة احتيالي لا يمكن تمييزه عن الإنسان.

يمكن أن يسمح الذكاء الاصطناعي التوليدي أيضًا لمجرمي الإنترنت باستهداف الأشخاص المعرضين للخطر بشكل انتقائي. على سبيل المثال ، يمكن أن يساعد تدريب نظام على المعلومات المسروقة من الشركات الكبرى ، مثل عمليات اختراق Optus أو Medibank العام الماضي ، المجرمين على استهداف كبار السن أو الأشخاص ذوي الإعاقة أو الأشخاص الذين يعانون من ضائقة مالية.

علاوة على ذلك ، يمكن استخدام هذه الأنظمة لتحسين رموز الكمبيوتر ، والتي يقول بعض خبراء الأمن السيبراني إنها ستجعل إنشاء البرامج الضارة والفيروسات أسهل ويصعب اكتشافها لبرامج مكافحة الفيروسات.

التكنولوجيا هنا ، ونحن لسنا مستعدين

نشرت حكومتا أستراليا ونيوزيلندا أطر عمل تتعلق بالذكاء الاصطناعي ، لكنها ليست قواعد ملزمة. قوانين كلا البلدين المتعلقة بالخصوصية والشفافية والتحرر من التمييز لا ترقى إلى مستوى المهمة ، فيما يتعلق بتأثير الذكاء الاصطناعي. هذا يضعنا خلف بقية العالم.

لدى الولايات المتحدة مبادرة وطنية للذكاء الاصطناعي تم تشريعها منذ عام 2021. ومنذ عام 2019 ، أصبح من غير القانوني في كاليفورنيا أن يتفاعل الروبوت مع المستخدمين لأغراض تجارية أو انتخابية دون الكشف عن أنه ليس بشريًا.

يسير الاتحاد الأوروبي أيضًا على الطريق الصحيح لسن قانون الذكاء الاصطناعي الأول في العالم. يحظر قانون الذكاء الاصطناعي أنواعًا معينة من برامج الذكاء الاصطناعي التي تشكل “مخاطر غير مقبولة” – مثل تلك المستخدمة من قبل نظام الائتمان الاجتماعي في الصين – ويفرض قيودًا إلزامية على الأنظمة “عالية المخاطر”.

على الرغم من أن مطالبة ChatGPT بخرق القانون ينتج عنه تحذيرات من أن “التخطيط لجريمة خطيرة أو تنفيذها يمكن أن يؤدي إلى عواقب قانونية وخيمة” ، إلا أن الحقيقة هي أنه لا يوجد شرط لأن يكون لهذه الأنظمة “مدونة أخلاقية” مبرمجة فيها.

قد لا يكون هناك حد لما يمكن أن يُطلب منهم القيام به ، ومن المرجح أن يتوصل المجرمون إلى حلول بديلة لأي قواعد تهدف إلى منع استخدامها غير القانوني. تحتاج الحكومات إلى العمل عن كثب مع صناعة الأمن السيبراني لتنظيم الذكاء الاصطناعي التوليدي دون خنق الابتكار ، مثل طلب اعتبارات أخلاقية لبرامج الذكاء الاصطناعي.

يجب على الحكومة الأسترالية استخدام مراجعة قانون الخصوصية المرتقبة للتغلب على التهديدات المحتملة من الذكاء الاصطناعي التوليدي إلى هوياتنا على الإنترنت. وفي الوقت نفسه ، يعد إطار الخصوصية وحقوق الإنسان والأخلاق في نيوزيلندا خطوة إيجابية.

نحتاج أيضًا إلى أن نكون أكثر حذرًا كمجتمع بشأن تصديق ما نراه على الإنترنت ، وتذكر أن البشر سيئون تقليديًا في القدرة على اكتشاف الاحتيال.

هل يمكنك اكتشاف عملية احتيال؟

نظرًا لأن المجرمين يضيفون أدوات الذكاء الاصطناعي التوليدية إلى ترسانتهم ، فإن اكتشاف عمليات الاحتيال سوف يصبح أكثر تعقيدًا. ستظل النصائح الكلاسيكية سارية. لكن بخلاف ذلك ، سنتعلم الكثير من تقييم الطرق التي تقصر بها هذه الأدوات.

الذكاء الاصطناعي التوليدي سيء في التفكير النقدي ونقل المشاعر. يمكن حتى خداعها لإعطاء إجابات خاطئة. إن معرفة متى ولماذا يحدث هذا يمكن أن نساعد في تطوير طرق فعالة للقبض على مجرمي الإنترنت باستخدام الذكاء الاصطناعي للابتزاز.

هناك أيضًا أدوات يتم تطويرها لاكتشاف مخرجات الذكاء الاصطناعي من أدوات مثل ChatGPT. يمكن أن تقطع شوطًا طويلاً نحو منع الجرائم الإلكترونية المستندة إلى الذكاء الاصطناعي إذا ثبتت فعاليتها.



اقرأ المزيد: هل تتعرض للقصف من خلال عمليات الاحتيال عبر الرسائل النصية الخاصة بالتسليم والبريد؟ إليك السبب – وما الذي يمكن عمله



نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى