موظفو سامسونج يتسببون في تسريب معلومات سرية باستخدام “شات جي بي تي ChatGPT”
هذا الخبر إلى الأذكياء من البشر :
[كشفت تقارير أن الموظفين في شركة “سامسونج Samsung” قاموا -عن غير قصد- بتسريب بيانات حساسة أثناء استخدام “ChatGPT” لأغراض العمل؛ حيث استخدم موظفو “سامسونج” هذه الخدمة لمساعدتهم في إصلاح مشكلات برمجيات “الكود المصدري”، لكنهم أدخلوا – عن طريق الخطأ- بيانات سرية حساسة.
واكتشفت شركة “سامسونج” ثلاث حالات لموظفين قاموا بتسريب معلومات سرية عبر “ChatGPT” على مدار 20 يومًا، وأصبحت أسرار الشركة الآن ملكية فكرية لشركة “OpenAI”.
بعد هذه الحوادث، أنشأت شركة “سامسونج” أداة ذكية خاصة بها للاستخدام الداخلي بدلًا من ChatGPT، وتحذر الشركة موظفيها من خطورة الكشف عن معلومات حساسة، وقد لا تتمكن Samsung من استرداد أو حذف البيانات الحساسة التي أصبحت تمتلكها الآن OpenAI، مما يجعل ChatGPT غير متوافق مع القانون العام لحماية البيانات (GDPR) الخاص ببعض الدول.
ويسلط هذا الحادث الضوء الأحمر على مخاطر استخدام خدمات الذكاء الاصطناعي التي تحتفظ ببيانات إدخال المستخدم لتدريب أنفسهم، وفي صناعة أشباه الموصلات شديدة التنافسية، وقد يكون فقدان الأسرار التجارية (والأمنية) كارثيًا ؛ وهو أحد الأسباب التي جعلت إيطاليا تحظر مؤخراً استخدام “ChatGPT” على الصعيد الوطني!]
ويشير البروفيسور أوري غال من كلية إدارة الأعمال بجامعة سيدني إلى أن استخدام “OpenAI” للبيانات لتدريب “ChatGPT” يمثل مشكلة بسبب انتهاكات الخصوصية و سلامة البيانات، ومن ثم يجب أن تكون الشركات [الحكومات] على دراية بالمخاطر التي ينطوي عليها الاحتفاظ ببيانات إدخال المستخدم والتأكد من أن موظفيها على دراية جيدة بالمخاطر المحتملة.
الخلاصة : إن استخدام الذكاء الاصطناعي التنافسي دون ضوابط وحوكمة واضحة يعني أنك أنت “الْمُسْتَخْدَمَ” وقد تتسبب في مشكلات وأضرار لا يحمد عُقباها!!
إلى المشرعين والمنظمين (*) : إن لم تتحركوا وتصححوا المسار سريعاً فقد يأت -والله تعالى أعلم- علينا ما لا تحمد عقباه -اقتصادياً واجتماعياً وأمنياً- في ساعة مندم ولا ينفع معها الندم [.]
(*) رسالة مفتوحة : أوقفوا -مؤقتاً- تجارب الذكاء الاصطناعي العملاقة ذات الذكاء التنافسي البشري! https://albuthi.com/blog/3461
Samsung workers made a major error by using ChatGPT | TechRadar