تعتمد على الذكاء الاصطناعي لسرقة الحسابات والاحتيال..الكشف عن ألف روبوت بمواقع التواصل الاجتماعي
أوضحت دراسة جديدة شاركها باحثون في مرصد وسائل التواصل الاجتماعي بجامعة إنديانا الأمريكية الشهر الماضي كيف تستفيد الجهات الفاعلة الخبيثة من روبوت المحادثة الخاص بشات جي بي تي، من شركة أوبن إيه آي، والذي أصبح تطبيق الذكاء الاصطناعي الاستهلاكي الأسرع نمواً على الإطلاق في فبراير/شباط الماضي.
Table of Contents (Show / Hide)
إذ وجد البحث، الذي أجراه كاي تشينغ يانغ، الباحث في العلوم الاجتماعية الحسابية، وفيليبو مينزر، أستاذ علوم الكمبيوتر، أن قدرة تطبيق شات جي بي تي على إنشاء نص ذي مظهر موثوق تُستخدَم لتشغيل "شبكات الروبوت" على منصة إكس، التي كانت معروفة في السابقة باسم تويتر.
ما هي شبكات الروبوت؟
شبكات الروبوت هي شبكات تضم مئات من الروبوتات الضارة وحملات البريد العشوائي على وسائل التواصل الاجتماعي، والتي لا يمكن اكتشافها بواسطة مرشحات مكافحة البريد العشوائي الحالية. وتُنشَر لأسبابٍ عديدة -وفي هذه الحالة، تعمل شبكات الروبوت على الترويج للعملات المشفرة الاحتيالية والرموز غير القابلة للاستبدال.
فيما تحاول حسابات الروبوت إقناع الأشخاص بالاستثمار في العملات المشفرة المزيفة، وقد تسرق حتى من محافظ العملات المشفرة الموجودة لديهم.
الشبكة التي اكتشفها يانغ ومينزر على منصة إكس تضم أكثر من ألف روبوت نشط. وقد قامت هذه الروبوتات بتتبُّع مشاركات بعضها والرد عليها من خلال مخرجات شات جي بي تي، وغالباً ما تنشر صوراً شخصيةً مسروقة من الملفات الشخصية البشرية لإنشاء شخصياتٍ مزيفة.
وفي السنوات القليلة الماضية، نشرت روبوتات وسائل التواصل الاجتماعي -الحسابات التي تسيطر عليها البرامج كلياً أو جزئياً- بشكل روتيني لتضخيم المعلومات الخاطئة حول الأحداث، من الانتخابات إلى أزمات الصحة العامة مثل جائحة كوفيد.
كان من السهل اكتشاف روبوتات الوسائط الاجتماعية هذه بسبب سلوكها الآلي وشخصياتها المزيفة غير المقنعة.
لكن أدوات الذكاء الاصطناعي التوليدية، مثل شات جي بي تي، تنتج نصوصاً ووسائط تشبه ما ينتجه البشر في ثوان. قال يانغ لموقع Business Insider الأمريكي: "إن تقدم أدوات الذكاء الاصطناعي سيشوِّه فكرة المعلومات عبر الإنترنت بشكل دائم".
يقول الاستطلاع إن روبوتات الذكاء الاصطناعي في الشبكة التي اكتشفها الباحثون نشرت بشكل أساسي حول حملات العملات المشفرة الاحتيالية والرموز غير القابلة للاستبدال، وروَّجت لمواقع مشبوهة حول موضوعات مماثلة، والتي من المحتمل أنها كانت مكتوبة باستخدام شات جي بي تي.
مواقع إخبارية كاذبة
بعيداً عن وسائل التواصل الاجتماعي، أنشأت الأدوات المشابهة لشات جي بي تي مواقع إخبارية عامة غير مرغوب فيها، وينشر العديد منها أكاذيب صارخة.
وقد عثرت شركة نيوزغارد، وهي شركة خاصة تعمل على تقييم موثوقية مواقع الأخبار والمعلومات، حتى الآن على أكثر من 400 موقع ويب أُنشِئ بواسطة الذكاء الاصطناعي كجزء من عمليات التدقيق المستمرة منذ أبريل/نيسان.
وتحقق مواقع الويب هذه إيراداتٍ من تقنية الإعلانات الآلية التي تشتري مساحة إعلانية على مواقع الويب، بغض النظر عن جودتها أو طبيعتها.
فيما تمكنت شركة نيوزغارد والباحثون، بشكلٍ منفصل، من اكتشاف محتوى البريد العشوائي الناتج عن الذكاء الاصطناعي باستخدام إشارة واضحة تمتلكها برامج الدردشة حالياً.
عندما لا يتمكن تطبيق شات جي بي تي من تقديم إجابة؛ لأن المطالبة تتعارض مع سياسات شركة أوبن إيه آي أو تتعلق بمعلومات خاصة، فإنه يولد استجابة جاهزة مثل، "أنا آسف، لكن لا يمكنني الامتثال لهذا الطلب".
ويبحث الباحثون عن وقت ظهور هذه الاستجابات في محتوى الروبوت الآلي، سواء على صفحة ويب أو في تغريدة. حيث يستخدمون العبارات للكشف عن أجزاء من حملة الروبوتات الأوسع، ومن هنا يكتشفون بقية شبكة البريد العشوائي.
ومع ذلك، يخشى الخبراء من أنه مع تحسن برامج الدردشة الآلية في تقليد البشر، فإن مثل هذه العلامات المنبهة سوف تختفي، وتجعل من الصعب للغاية تتبع المحتوى الناتج عن الذكاء الاصطناعي.
وجدت دراسة حديثة أجراها أكاديميون أوروبيون أن أدوات الكشف عن محتوى الذكاء الاصطناعي المتاحة، مثل زيرو جي بي تي، وإيه آي تيكست كلاسيفاير، التابع لشركة أوبن إيه آي، غير موثوقة، وغالباً لا يمكنها التمييز بدقة بين المحتوى الذي ينشأ عن طريق الإنسان والمحتوى الذي ينشأ بالذكاء الاصطناعي. وتتسم خدمة الكشف الخاصة بشركة أوبن إيه آي بمعدل دقة منخفض لدرجة أن الشركة قررت إغلاقها.
في يوليو/تموز، أعلنت إدارة بايدن أن اللاعبين الكبار في مجال الذكاء الاصطناعي، بما في ذلك جوجل، ومايكروسوفت، وأوبن إيه آي، قدموا التزامات للبيت الأبيض بشأن هندسة حواجز الحماية للحد من مخاطر الذكاء الاصطناعي.
كان من هذه الإجراءات وضع علامة مخفية على المحتوى الذي يُنشَأ بواسطة الذكاء الاصطناعي لمساعدة الأشخاص على تمييزه عن المحتوى الذي يصنعه البشر، وفقاً للبيت الأبيض. لكن مينزر، المؤلف المشارك للبحث الصادر عن جامعة إنديانا، قال إن هذه الضمانات لن توقف على الأرجح الجهات الفاعلة السيئة.
المصدر: عربي بوست