• أعضاء وزوار منتديات المشاغب ، نود أن نعلمكم بأنه قد تم تحديث دليل مواقع المشاغب وإصلاح الأخطاء التي ظهرت مؤخراً حياكم الله جميعاً.
  • أعضاء وزوار منتديات المشاغب ، نود أن نعلمكم أن المنتدى سيشهد في الفترة القادمة الكثير من التغيرات سواءاً على المستوى الإداري او مستوى الاقسام، لذا نرجو منكم التعاون، وأي ملاحظات او استفسارات يرجى التواصل معنا عبر قسم الشكاوي و الإقتراحات ونشكركم على حسن تفهمكم وتعاونكم ،مع خالص الشكر والتقدير والاحترام من إدارة منتديات المشاغب.

ذكاء اصطناعي قد يسرق أموالك.. تحذير مثير من "شات جي بي تي"!

فزاع

مشرف أخبار التكنولوجيا والتقنيات
سجل
16 سبتمبر 2024
المشاركات
301
التفاعل
290
الإقامة
الإمارات العربية المتحدة
الجنس

1731407426045.jpeg

في عالم تتقدم فيه التكنولوجيا باستمرار، تتزايد معه المخاوف المتعلقة بالسلامة. واكتشف الباحثون مؤخراً طريقة جديدة يمكن للمحتالين من خلالها إساءة استخدام واجهة برمجة التطبيقات الصوتية في الوقت الفعلي من "OpenAI" لبرنامج "ChatGPT-4o" للقيام بعمليات احتيال مالية وسرقة هوية. يقدم نموذج "ChatGPT-4o" ميزات مبتكرة مثل النص والصوت وحتى التفاعلات القائمة على الرؤية، مما يفتح المجال أمام العديد من المزايا وبعض المخاطر.

وقامت "OpenAI" بدمج العديد من إجراءات الحماية التي تهدف إلى اكتشاف المحتوى الضار ومنعه، وخاصة في التفاعلات الصوتية. على سبيل المثال، تتضمن تقنية لمنع انتحال الهوية عن طريق تكرار الأصوات غير المصرح بها، وفقاً لما ذكرته "digit.in" واطلعت عليه "العربية Business".


ومع ذلك، اكتشف الباحثون من "UIUC " أن هذه الحماية قد لا تكون كافية. كما هو موضح في دراستهم، يمكن لعمليات الاحتيال المدعومة
يجب عليك تسجيل الدخول او تسجيل لمشاهدة الرابط المخفي
والتي تنطوي على التحويلات المصرفية وسرقة بطاقات الهدايا وسرقة بيانات اعتماد Instagram أو Gmail تجاوز هذه الدفاعات ببعض التعديلات السريعة

ما دفع الباحثين لاستخدام أساليب احتيالية متنوعة للكشف عن نقاط الضعف في أنظمة الذكاء الاصطناعي، حيث قاموا بتكوين وكلاء ذكاء اصطناعي مزودين بقدرات صوتية مشابهة لـ ChatGPT-4 لتنفيذ عمليات مثل ملء نماذج البنوك، والتعامل مع رموز المصادقة الثنائية، واتباع خطوات محددة للاحتيال. وخلال التجارب، مثل الباحثون دور الضحايا المتفاعلين مع وكيل الذكاء الاصطناعي، ووصلوا إلى مواقع مصرفية حقيقية للتأكد من إمكانية إتمام المعاملات بنجاح.

وأوضح دانييل كانغ من جامعة "إلينوي في أوربانا-شامبين": "قمنا بمحاكاة الاحتيال عبر التفاعل اليدوي مع الوكيل الصوتي، ولعبنا دور الضحية الساذجة". وقد تراوحت نسبة النجاح بين 20% و60%، حيث استغرقت بعض المهام ما يصل إلى 26 خطوة للمتصفح و3 دقائق لتنفيذها.

وحققت بعض عمليات الاحتيال، مثل سرقة بيانات الاعتماد على Gmail، معدل نجاح بنسبة 60%، في حين حققت عمليات أخرى مثل تحويلات العملات المشفرة أو سرقة حسابات Instagram حوالي 40%. وأشار الباحثون إلى أن كل عملية احتيال كانت رخيصة التنفيذ، حيث بلغت تكلفة التحويلات المصرفية حوالي 2.51 دولار، وبلغ متوسط تكلفة عمليات الاحتيال الأخرى 0.75 دولار فقط.

وردًا على ذلك، سلطت OpenAI الضوء على العمل الذي تقوم به لتحسين الأمان من خلال أحدث طراز لها، o1-preview. وقال متحدث باسم OpenAI لـ" Bleeping Computer": "نعمل باستمرار على تحسين "شات جي بي تي" في إيقاف المحاولات المتعمدة لخداعه، من دون فقدان فائدته أو إبداعه، وأحدث نموذج استدلال o1 لدينا هو الأكثر كفاءة وأمانًا حتى الآن، ويتفوق بشكل كبير على النماذج السابقة في مقاومة المحاولات المتعمدة لإنشاء محتوى غير آمن".

وأكدت OpenAI" أيضًا أن هذه الدراسات تساعدها في تعزيز حماية "شات جي بي تي".

المصدر
العربية
 
شـكــ وبارك الله فيك ـــرا لك .
 
شـكــ وبارك الله فيك ـــرا لك .
 
شكرا لك
 
المنتدى غير مسؤول عن أي اتفاق تجاري أو تعاوني بين الأعضاء.
فعلى كل شخص تحمل مسؤولية نفسه إتجاه مايقوم به من بيع وشراء وإتفاق واعطاء معلومات موقعه.
المواضيع والتعليقات المنشورة لا تعبر عن رأي منتدى المشاغب ولا نتحمل أي مسؤولية قانونية حيال ذلك (ويتحمل كاتبها مسؤولية النشر)
عودة
أعلى