يتزايد القلق حول مدى اختراق تطبيقات الذكاء الاصطناعي لخصوصية المستخدمين، وبخاصة مع انتشار تطبيقات مثل ChatGPT كأحد أبرز أمثلة هذه التكنولوجيا. وتؤكد تقارير أن سياسة الخصوصية تركز على جمع البيانات من مصادر رئيسية متعددة، ما يجعل المستخدم تحت رقابة رقمية غير مباشرة في كثير من الأحيان. وتوضح النتائج أن البيانات تجمع وتستخدم لأغراض تشغيلية وتجارية مع الإشارة إلى أن الاحتفاظ بها يكون لفترة محدودة. وتبرز توصيات لإتاحة شفافية أفضل حول ما يجمع وكيف يُستخدم وما هي الإعدادات التي يمكن للمستخدم تعديلها.

مصادر جمع البيانات في ChatGPT

المصدر الأول هو معلومات الحساب، وتشمل البيانات التي يدخلها المستخدم عند إنشاء الحساب أو الاشتراك في الخدمات المميزة، مثل الاسم وبيانات الاتصال ومعلومات الاعتماد وبيانات الدفع. هذه البيانات تتيح للشركة ربط الهوية بنشاط المستخدم وتسهيل عمليات الدفع وتوفير الوصول الآمن للخدمات. كما تسهم في تعزيز أمان المعاملات وتوفير تجربة مخصصة للمستخدم. وتعكس هذه البيانات الأطر المحيطة بحماية البيانات وتحديد حدود استخدامها ضمن السياسات المعتمدة.

المصدر الثاني البيانات التعريفية، وهي المعلومات التي يمكن استخراجها من الجهاز أو المتصفح مثل عنوان IP والموقع الجغرافي ونوع الجهاز وبيانات الاستخدام. تستخدم هذه البيانات لتحليل سلوك المستخدم وتحسين أداء المنصة وتقديم خدمات أكثر تخصيصاً. كما تتيح تقييم مخاطر الأمن الشبكي وتبيان أنماط الاستخدام بشكل يخدم الحماية والأمان. تظل هذه البيانات جزءاً من بنية البيانات التي قد تُستخدم في التدريب والتحسين ضمن سياسات الخصوصية المعتمدة.

المصدر الثالث محتوى المحادثات، الذي يشمل النصوص التي يكتبها المستخدم أثناء المحادثة، والملفات التي يرفعها، والتعليقات التي يقدمها. قد تُستخدم هذه المواد أحياناً في تدريب نماذج الذكاء الاصطناعي بعد مراجعتها من قِبل مدربين بشريين. تتضمن هذه العملية احتمال مشاركة أجزاء من المحادثات مع فريق التطوير والبائعين بطرق تتوافق مع سياسات الخصوصية المعتمدة. وتؤدي هذه الممارسات إلى ضرورة تعزيز حوكمة البيانات ومراقبة الوصول وفق أسس الشفافية والأمان.

وبحسب التقرير، تشارك OpenAI بعض هذه البيانات مع مقدمي الخدمات والبائعين والشركات التابعة لأغراض تشغيلية وتجارية. كما تؤكد السياسة أن البيانات تظل محفوظة لفترة محدودة وتخضع لإجراءات تنظيمية للحد من الوصول غير المصرح به. وتدعم هذه الإجراءات أطر الخصوصية من خلال شروط تعامل مع الشركاء لضمان عدم إساءة الاستخدام. كما تشير إلى أن للمستخدمين بعض الحقوق في التحكم بمسارات البيانات ضمن الإطار المتاح.

يشير التقرير إلى أن تحميل تطبيق ChatGPT على الهواتف الذكية يتطلب منح مجموعة من الأذونات، أبرزها الوصول إلى الميكروفون والكاميرا، وهذا ما يُعد الأخطر من منظور الخصوصية. وينصح المستخدمون عادة بإلغاء الأذونات فور الانتهاء من الاستخدام، إذ جاء هذا الإرشاد في دليل الاستخدام الخاص بالشركة. كما يؤكد الدليل على تعطيل الوصول إلى الكاميرا والميكروفون بعد الانتهاء من الاستخدام لضمان تقليل مخاطر الوصول غير المصرح به. وتبقى مراقبة الأذونات جزءاً أساسياً من إدارة الخصوصية أثناء استخدام التطبيق على الهواتف.

يرى الخبراء أن الأطر القانونية لحماية بيانات المستخدمين ما تزال تواجه تحديات مع التطور السريع للذكاء الاصطناعي. وتظل القوانين الموجودة في كثير من الحالات غير كافية لتنظيم جميع جوانب جمع البيانات واستخدامها، ما يدفع الشركات إلى تطبيق سياسات داخلية أكثر صرامة. وتمنح بعض الحقوق للمستخدمين مثل حماية سرية البيانات من الاختراق والحق في النسيان الرقمي الذي يتيح عدم الاحتفاظ بالمحادثات إلى الأبد. ومع ذلك، تظل هناك حاجة لتشريعات وتدابير إضافية لتوفير حماية أقوى وتتناغم مع التطور التكنولوجي.

شاركها.