نفتح هواتفنا، نكتب سؤالًا في محرك البحث، أو نحاور روبوتًا ذكيًا يساعدنا على صياغة فكرة أو اقتراح عنوان، لكن خلف هذه اللحظات البسيطة التي تشبه المعجزة اليومية، يتحرك عالم خفيّ من البيانات والمراقبة والتعلّم الآلي، حيث لا يعرف أحد على وجه الدقة أين تنتهي حدود «المعرفة» وأين تبدأ انتهاكات الخصوصية.
تشرح الباحثة جينيفر كينج، الزميلة في «معهد ستانفورد للذكاء الاصطناعي المتمحور حول الإنسان»، أن الذكاء الاصطناعي لم يأتِ بمخاطر جديدة تمامًا على الخصوصية، بل وسّع نطاقها إلى ما لم يكن ممكنًا من قبل. تقول: «الأنظمة الذكية اليوم جائعة للبيانات بشكل غير مسبوق، وغامضة إلى درجة أننا لم نعد نعرف ما الذي يُجمع عنّا، أو كيف يُستخدم، أو إن كان بإمكاننا تصحيح ما يُنسب إلينا من معلومات».
ويأتي هذا التحذير في سياق التقرير الذي أعدّته كينج مع الباحثة كارولاين ماينهارت، بعنوان «إعادة التفكير في الخصوصية في عصر الذكاء الاصطناعي»، حيث ترسمان فيه خريطة جديدة لفهم العلاقة بين الإنسان والبيانات، في عالم باتت فيه كل نقرة رقمًا في معادلة تجارية أو خوارزمية خفية.
تتجاوز المشكلة مجرد «البيانات» إلى ما يمكن فعله بها. فوفق كينج، تستخدم بعض أدوات الذكاء الاصطناعي البيانات العامة من الإنترنت لتوليد محتوى جديد، لكنها قد تحفظ -دون قصد- معلومات شخصية عن الأفراد، مثل عناوينهم أو علاقاتهم أو صورهم. هذه التفاصيل قد تتحول إلى مادة لعمليات تصيّد أو انتحال هوية. تقول كينج: «رأينا مجرمين يستخدمون تقنيات استنساخ الصوت لابتزاز الناس عبر الهاتف، وهذه فقط البداية».
ولا يقف الخطر عند الاستخدامات الإجرامية. فأنظمة التوظيف التي تعتمد على الذكاء الاصطناعي، مثل تجربة «أمازون» الشهيرة، أظهرت تحيّزًا ضد النساء، لأن البيانات التي درّبت النظام كانت منحازة أصلاً. وحتى أنظمة التعرّف على الوجوه التي يُفترض أنها تُسهم في مكافحة الجريمة، تورّطت في اعتقالات خاطئة لرجال سود، نتيجة تحيّز البيانات التي غذّت خوارزمياتها.
رغم كل ذلك، تصرّ كينج على التفاؤل: «قد تكون بياناتنا قد جُمعت بالفعل، لكن هذا لا يعني أننا عاجزون عن فرض أنظمة أكثر عدلًا». وتنتقد الباحثة استمرار الشركات في جمع المعلومات تلقائيًا دون موافقة المستخدمين الصريحة، وهي ممارسة شرّعها الواقع منذ عقود. تقول: «قبل عشرين عامًا أقنعت الصناعة لجنة التجارة الفيدرالية بأن نظام الموافقة المسبقة سيقضي على الإنترنت التجاري. اليوم أثبتت التجربة أن الإنترنت لن ينهار، لكن ثقة الناس قد تنهار إن استمر هذا النهب الصامت».
وتقترح كينج نموذج «الاختيار المسبق (Opt-in)» بدلًا من «الانسحاب (Opt-out)»، أي ألا تُجمع بياناتنا إلا بموافقتنا الصريحة، مثلما فعلت شركة «آبل» عندما أطلقت نظام «شفافية تتبع التطبيقات» الذي مكّن المستخدمين من رفض تتبعهم عبر التطبيقات الأخرى. وتشير التقديرات إلى أن أكثر من 80% من المستخدمين يختارون الرفض عندما يُمنحون الخيار.
تؤمن كينج بأن الحل لا يكمن فقط في تعديل اللوائح، بل في إعادة النظر إلى «سلسلة توريد البيانات» نفسها: من أين تأتي المعلومات، وكيف تُستخدم، ومَن يضمن عدم تسربها مرة أخرى إلى الخارج. تقول: «نعتمد الآن على نية الشركات الحسنة كي تحذف المعلومات الشخصية من بيانات التدريب، وهذا غير مقبول. يجب أن تكون هناك رقابة واضحة على المدخلات والمخرجات معًا».
وترى الباحثة أن تركيز التشريعات الحالية -مثل اللائحة الأوروبية العامة لحماية البيانات- على شفافية الشركات لا يكفي، لأن أغلب هذه القوانين تتعامل مع الغايات وليس مع المادة الخام، البيانات ذاتها. فحتى في أوروبا، لم يتناول «قانون الذكاء الاصطناعي» مسألة البيانات إلا في سياق محدود يتعلق بالأنظمة عالية الخطورة.
في نظر كينج، لا يمكن للمواطن العادي أن يخوض حرب الخصوصية بمفرده. فالقوانين التي تمنحه حق «الاعتراض على بيع بياناته» تضع عليه عبئًا هائلًا، فعليه أن يقدّم طلبًا لكل شركة تعامل معها، ويجدّد طلبه كل عامين. تقول: «إنها معركة غير متكافئة؛ لا أحد لديه الوقت ولا الأدوات ليحمي نفسه من مئات الكيانات التي تتداول بياناته يوميًا».
ومن هنا تبرز فكرة «الوسيط البياني (Data Intermediary)»، الذي يتولى التفاوض الجماعي باسم الأفراد حول كيفية استخدام بياناتهم. قد يتخذ هذا الوسيط شكل «صندوق بيانات» أو «تعاونية رقمية»، تمنح الناس قوة تفاوض حقيقية أمام الشركات الكبرى. وهي فكرة بدأت بالفعل تظهر في بعض قطاعات الأعمال، وقد تمتد قريبًا إلى المستهلكين.
يبدو أن الخصوصية لم تعد مسألة «شخصية» بقدر ما أصبحت قضية سياسية واقتصادية وإنسانية في آن واحد. فالذكاء الاصطناعي لا يغيّر فقط الطريقة التي ننتج بها المعرفة، بل أيضًا الطريقة التي نُعرّف بها أنفسنا. وكما تقول كينج: «ما لم نُدخل مبدأ العدالة في البيانات منذ لحظة جمعها، سنجد أنفسنا نبني أنظمة ذكية على أساس من التحيّز والتسلط».
في نهاية المطاف، لا تكمن المعضلة في أن الآلات تعرف الكثير عنّا، بل في أننا نحن من سمح لها بذلك، خطوة بعد خطوة، باسم الراحة والكفاءة والابتكار. وربما حان الوقت لنسأل: هل الذكاء الاصطناعي أكثر ذكاءً منّا حقًّا، أم أنه مجرد مرآة تكشف حجم تنازلنا عن حريتنا؟