أوضح كاران سينغال، رئيس قسم الذكاء الاصطناعي الصحي في OpenAI، في منشور على منصة X أن الأنباء المتداولة غير صحيحة. وأكد أن ChatGPT لم يكن يومًا بديلاً عن المشورة المهنية، بل أداة مفيدة لمساعدة الناس على فهم المعلومات القانونية والصحية بشكل أفضل. وأشار إلى أن سلوك المنصة لم يتغير إطلاقاً، وأن OpenAI لم تغيّر سياساتها الأساسية بشأن الاستشارات القانونية أو الطبية.

السياسات والتحديثات

أشار التحديث الصادر في 29 أكتوبر إلى إدراج قائمة بالأمور التي لا يمكن استخدام ChatGPT لأجلها، منها تقديم استشارات مخصصة تتطلب ترخيصاً، مثل الاستشارات القانونية أو الطبية، دون مشاركة مناسبة من متخصص مرخص. وتؤكد هذه البنود أن السياسة ليست جديدة بل كانت مذكورة ضمن شروط الاستخدام قبل ذلك. كما يوضح التحديث أن هناك قائمة موحدة تخص جميع منتجات وخدمات OpenAI وفق سجل التغييرات.

كان لدى OpenAI سابقاً ثلاث سياسات منفصلة، منها سياسة عالمية وسياسات خاصة باستخدام ChatGPT وواجهات برمجة التطبيقات. ومع التحديث الجديد اعتمدت الشركة قائمة موحدة من القواعد تغطي جميع المنتجات والخدمات. وبرغم التحديث، تبقى القاعدة الأساسية نفسها، وهي منع تقديم استشارات قانونية أو طبية مخصصة دون مراجعة من مختص مؤهل والإفصاح عن استخدام المساعدة بالذكاء الاصطناعي والقيود المحتملة.

شاركها.