مفاجأة غير سارة .. 5 أشياء لا ينبغي مشاركتها مع ChatGPT أبداً

الامارات 7 - في وقتٍ بات فيه الذكاء الاصطناعي جزءاً أساسياً من الحياة الرقمية اليومية، تتزايد التحذيرات من المخاطر المرتبطة بسوء استخدام هذه الأدوات، وفي مقدمتها روبوت الدردشة الشهير ChatGPT.

فبحسب بيانات حديثة، يردّ ChatGPT على نحو 2.5 مليار طلب يومياً حول العالم، تستحوذ الولايات المتحدة وحدها على قرابة 330 مليون طلب منها، ما يجعله واحداً من أكثر المنصات التقنية استخداماً على الإطلاق، وفقا لموقع slashgear.

وعلى عكس محركات البحث التقليدية التي تقدم للمستخدم قائمة روابط، يتفاعل ChatGPT بأسلوب حواري أقرب إلى التفاعل الإنساني، الأمر الذي يدفع كثيرين إلى مشاركة معلومات حساسة دون إدراك العواقب المحتملة.

وفي ظل الجدل المستمر حول أمن البيانات وحداثة هذه التكنولوجيا، يبرز سؤال جوهري: ما الذي لا يجب مشاركته مع ChatGPT؟

المعلومات الشخصية القابلة للتعريف

تتصدر البيانات الشخصية القابلة للتعريف، مثل الأسماء الكاملة والعناوين وأرقام الهوية وأرقام الهواتف والبريد الإلكتروني، قائمة المعلومات المحظور مشاركتها.

وكشفت دراسة أجراها فريق Safety Detectives على ألف محادثة عامة في ChatGPT أن عدداً كبيراً من المستخدمين أفصحوا عن بيانات حساسة، بل وصل الأمر إلى مشاركة أسماء مستخدمين وكلمات مرور.

ويحذّر خبراء الأمن السيبراني من أن هذه البيانات، إذا أسيء استخدامها، قد تؤدي إلى سرقة الهوية أو عمليات احتيال رقمية واسعة النطاق.

التفاصيل المالية

رغم لجوء كثيرين إلى ChatGPT للمساعدة في إعداد الميزانيات أو التخطيط المالي، فإن مشاركة أي تفاصيل مالية حقيقية تشكل خطراً كبيراً.

وتشمل هذه التفاصيل أرقام الحسابات البنكية وبطاقات الائتمان والسجلات الضريبية، فهذه المنصة لا تعمل ضمن أطر الحماية الصارمة المعتمدة في الأنظمة المصرفية، ما يجعل البيانات المدخلة عرضة للتسرب أو الاستغلال من قبل جهات خبيثة.

البيانات الطبية والصحية

يتجه عدد متزايد من المستخدمين إلى روبوتات الذكاء الاصطناعي للحصول على معلومات صحية، إذ تشير استطلاعات إلى أن واحداً من كل ستة بالغين يستخدم هذه الأدوات شهرياً لهذا الغرض، غير أن مشاركة التشخيصات الطبية أو نتائج الفحوصات أو التاريخ المرضي، خصوصاً عند اقترانها بمعلومات تعريفية، يخرج هذه البيانات من نطاق أنظمة حماية المعلومات الصحية، ويجعل السيطرة عليها لاحقاً أمراً شبه مستحيل.

مواد العمل والملفات السرية

تحذّر التقارير أيضاً من إدخال مستندات أو مراسلات مهنية سرية في ChatGPT، سواء كانت مرتبطة بجهات عمل أو عملاء أو مشاريع غير معلنة، فمحاولة تلخيص تقارير أو إعادة صياغة رسائل بريد إلكتروني قد تؤدي، دون قصد، إلى تعريض معلومات محمية قانونياً أو حقوق ملكية فكرية لمخاطر غير محسوبة.

أي محتوى غير قانوني

يشدد الخبراء على ضرورة تجنب مشاركة أي محتوى غير قانوني. إذ تؤكد OpenAI التزامها بالتعاون مع السلطات القانونية الأمريكية والدولية عند الطلب، كما أن القوانين الرقمية تتغير باستمرار، ما قد يحوّل ممارسات عادية إلى مخالفات قانونية خلال فترة قصيرة.

ويرى مختصون أن القاعدة الذهبية في التعامل مع ChatGPT هي عدم مشاركة أي معلومة لا يرغب المستخدم في رؤيتها منشورة على منصة عامة، فرغم الفوائد الكبيرة التي توفرها أدوات الذكاء الاصطناعي، يبقى الوعي الرقمي والحذر أساس الاستخدام الآمن في عصر تتسارع فيه وتيرة التكنولوجيا بشكل غير مسبوق.




شريط الأخبار