أدى الاستثمار المرتفع من شركات التقنية الكبرى في الذكاء الاصطناعي وروبوتات الدردشة -وسط عمليات تسريح جماعي للعمال وتراجع في النمو- إلى دخول العديد من كبار مسؤولي أمن المعلومات في نفق مظلم.
يحتاج كبار مسؤولي أمن المعلومات إلى التعامل مع هذه التقنية بحذر، ويتطلب الأمر من الشركات مراقبة كيفية استخدام العمال لهذه التقنية.
استخدام الذكاء الاصطناعي من قبل الموظفين
يقول مايكل تشوي، الشريك في معهد ماكينزي العالمي، إن الموظفين سيستخدمون الناس الذكاء الاصطناعي التوليدي إلتسهيل عملهم.
ويوضح أنه “حتى لو لم تصادق أقسام تقنية المعلومات على استخدام روبوتات الدردشة، يجدها الموظفون مفيدة”.
أمن المعلومات
يتعامل كبار مسؤولي أمن المعلومات مع مشكلات كافية، مثل هجمات الأمن السيبراني المحتملة واحتياجات التشغيل الآلي المتزايدة، ومع استخدام الذكاء الاصطناعي وروبوتات الدردشة في مكان العمل، يجب أن يبدأوا بالتأكيد على أساسيات الأمان.
نصح تشوي بأنه يمكن للشركات ترخيص استخدام نظام أساسي قائم على الذكاء الاصطناعي، حتى يتمكنوا من مراقبة ما يقوله الموظفون لروبوت الدردشة والتأكد من حماية المعلومات التي يتم مشاركتها.
وتابع أن ترخيص استخدام البرامج يأتي مصحوبًا بضوابط تتعلق بحماية المعلومات السرية، وتنظيم مكان تخزين المعلومات، وإرشادات حول كيفية استخدام الموظفين للبرنامج.
إنشاء أو دمج GPT مخصص
أحد خيارات الأمان للشركات هو تطوير GPT الخاصة بها، أو استئجار الشركات التي تبتكر هذه التقنية لعمل نسخة مخصصة، كما يقول سمير بيناكالاباتي، الرئيس التنفيذي في Ceipal.
إذا أنشأت شركة ما GPT خاصة بها، فسيكون للبرنامج المعلومات الدقيقة التي يريد أن يتمكن الموظفون من الوصول إليها.
قال بيناكالاباتي إن الشركة يمكنها أيضًا حماية المعلومات التي يغذيها الموظفون بها، لكن حتى التعاقد مع شركة ذكاء اصطناعي لإنشاء هذه المنصة سيمكن الشركات من تغذية المعلومات وتخزينها بأمان.
وأيا كان المسار الذي تختاره الشركة، يجب على كبار مسؤولي أمن المعلومات أن يتذكروا أن هذه الآلات تعمل بناءً على الطريقة التي تم تدريسها بها.
كيف كانت المملكة في زمن الديناصورات؟ تجول حول قارات العالم قبل 750 مليون سنة
“هنري الثاني”.. حكاية ملك كادت أن تتحول إنجلترا بسببه إلى بلد إسلامي!