تكنولوجيا – عنوان بريدك الإلكترونى المستخدم لتسجيل الدخول إلى ChatGPT معرض للخطر

تكنولوجيا  – عنوان بريدك الإلكترونى المستخدم لتسجيل الدخول إلى ChatGPT معرض للخطر

البوكس نيوز – تكنولوجيا – نتحدث اليوم حول عنوان بريدك الإلكترونى المستخدم لتسجيل الدخول إلى ChatGPT معرض للخطر والذي يثير الكثير من الاهتمام والجدل عبر مواقع التواصل الاجتماعي وكما سنتناول بالتفصيل حول عنوان بريدك الإلكترونى المستخدم لتسجيل الدخول إلى ChatGPT معرض للخطر، وتعد هذا المقالة جزءًا من سلسلة المقالات التي ينشرها البوكس نيوز بشكل عام.

كشف أحد المرشحين في جامعة إنديانا بلومنجتون عن مخاطر الخصوصية المحتملة المرتبطة بنموذج اللغة القوى الخاص بـOpenAI، GPT-3.5 Turbo، حيث تواصل الشهر الماضي، فريق من جامعة إنديانا بقيادة الباحث روي تشو مع أفراد، بما في ذلك موظفو صحيفة نيويورك تايمز، باستخدام عناوين البريد الإلكتروني التي تم الحصول عليها من النموذج.


 


واستغلت التجربة قدرة GPT-3.5 Turbo على استرجاع المعلومات الشخصية، متجاوزة ضمانات الخصوصية المعتادة، على الرغم من عدم اكتماله، إلا أن النموذج قدم بدقة عناوين العمل لـ80 بالمائة من موظفي التايمز الذين تم اختبارهم.


 


وهذا يثير مخاوف بشأن إمكانية قيام أدوات الذكاء الاصطناعي التوليدية، مثل ChatGPT بالكشف عن معلومات حساسة مع تعديلات طفيفة.


 


تم تصميم نماذج لغة OpenAI، بما في ذلك GPT-3.5 Turbo وGPT-4، للتعلم المستمر من البيانات الجديدة، واستخدم الباحثون واجهة الضبط الدقيق للنموذج، والمخصصة للمستخدمين لتوفير المزيد من المعرفة في مجالات محددة، لمعالجة دفاعات الأداة، كما تم قبول الطلبات التي يتم رفضها عادةً في الواجهة القياسية من خلال هذه الطريقة.


 


وتستخدم OpenAI وMeta وGoogle تقنيات مختلفة لمنع طلبات الحصول على معلومات شخصية، لكن الباحثين وجدوا طرقًا لتجاوز هذه الضمانات. 


 


واستخدم تشو وزملاؤه واجهة برمجة التطبيقات الخاصة بالنموذج، بدلاً من الواجهة القياسية، وشاركوا في عملية تُعرف باسم الضبط الدقيق لتحقيق نتائجهم.


 


واستجابت شركة OpenAI للمخاوف، مؤكدة التزامها بالسلامة ورفض طلبات الحصول على معلومات خاصة، ومع ذلك يثير الخبراء الشكوك، ويسلطون الضوء على الافتقار إلى الشفافية فيما يتعلق ببيانات التدريب المحددة والمخاطر المحتملة المرتبطة بنماذج الذكاء الاصطناعي التي تحتوي على معلومات خاصة.


 


وتثير الثغرة الأمنية المكتشفة في GPT-3.5 Turbo مخاوف أوسع نطاقًا بشأن الخصوصية في نماذج اللغات الكبيرة. 


 


ويرى الخبراء أن النماذج المتاحة تجاريًا تفتقر إلى دفاعات قوية لحماية الخصوصية، مما يشكل مخاطر كبيرة لأن هذه النماذج تتعلم باستمرار من مصادر البيانات المتنوعة. 


 


وتضيف الطبيعة السرية لممارسات بيانات التدريب في OpenAI تعقيدًا إلى المشكلة، حيث يحث النقاد على زيادة الشفافية والتدابير لضمان حماية المعلومات الحساسة في نماذج الذكاء الاصطناعي.


 


 

وفي نهاية مقالتنا إذا كان لديك أي اقتراحات أو ملاحظات حول الخبر، فلا تتردد في مرسلتنا، فنحن نقدر تعليقاتكم ونسعى جاهدين لتلبية احتياجاتكم وتطوير الموقع بما يتناسب مع تطلعاتكم ونشكرًكم علي زيارتكم لنا، ونتمنى لكم قضاء وقت ممتع ومفيد معنا.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

error: لا يمكنك نسخ المقالة