حذّرت دراسة علمية حديثة من أن صوت الإنسان، بما يحمله من نبرة وإيقاع واختيار كلمات، قد يتحول إلى أداة لاستخلاص معلومات حساسة تُستخدم في التسعير الجائر أو التنميط غير العادل، في ظل التطور المتسارع لتقنيات الذكاء الاصطناعي ومعالجة الكلام.
ولا تكشف الدراسة، التي نُشرت في نوفمبر الماضي ضمن دورية «Proceedings of the IEEE»، وتوصلت إلى أن أنماط التنغيم واختيارات المفردات، فقط الحالة العاطفية، بل قد تتيح استنتاج مستوى التعليم، والمهنة، والوضع المالي، والميول السياسية، بل وحتى وجود حالات صحية أو طبية.
قدرات تتجاوز الإدراك البشري
وبينما يستطيع البشر التقاط مؤشرات واضحة مثل التعب أو التوتر أو السعادة، تشير الدراسة إلى أن الأنظمة الحاسوبية قادرة على تحليل إشارات صوتية أكثر تعقيدًا، وبسرعة تفوق الإدراك البشري، مستندة إلى كميات كبيرة من البيانات.
ويقود هذا التطور، وفق الباحثين، إلى مخاوف تتعلق بالخصوصية وإمكانية استخدام هذه التحليلات في ممارسات غير عادلة، مثل فرض أسعار مختلفة على الأفراد بناءً على استنتاجات مستمدة من أصواتهم.
ويقول توم باكستروم، الأستاذ المشارك في تكنولوجيا الكلام واللغة بجامعة «Aalto University» الفنلندية، والباحث الرئيسي في الدراسة، إن تلك التكنولوجيا «ليست قيد الاستخدام بعد»، لكنه أشار إلى أن «البذور قد زُرعت».
وأوضح أن «الاكتشاف الآلي للغضب والسلوك السام في الألعاب عبر الإنترنت ومراكز الاتصال يُتداول علنًا، تلك أهداف مفيدة وأخلاقية». لكنه حذّر من أن تكييف واجهات الكلام لتتشابه مع أسلوب العميل قد يفتح الباب أمام «أهداف أكثر إثارة للشبهات أو خبيثة قابلة للتحقيق».
من تحسين الخدمة إلى التسعير التمييزي
وتلفت الدراسة إلى أن قدرة الشركات على استنتاج الوضع الاقتصادي أو الاحتياجات الفردية من الصوت قد تمهد الطريق إلى تسعير تمييزي، مثل تعديل أقساط التأمين بناءً على تحليلات صوتية.
ورغم أن باكستروم أوضح أنه لم يسمع عن حالات أسيء فيها استخدام هذه التكنولوجيا، فإنه أضاف: «لا أعرف إن كان السبب أن أحدًا لم يفعل، أم أننا لم نكن نبحث». وشدد على أن «العديد من أدوات التعلم الآلي لتحليل ينتهك الخصوصية متاحة بالفعل، واستخدامها الخبيث ليس بعيد الاحتمال».
وأشار إلى أن إثارة هذه القضية قد تبدو بمثابة «فتح صندوق باندورا»، إذ قد تنبه «الخصوم» إلى إمكانات التكنولوجيا، لكنه اعتبر أن الصمت قد يمنح «الشركات الكبرى ودول المراقبة» أفضلية غير متوازنة.
أبعاد فسيولوجية للاستماع
من جانبها، قالت جينالين بونراج، مؤسسة شركة «Delaire»، والمتخصصة في استشراف تنظيم الجهاز العصبي البشري في ظل التقنيات الناشئة، إن «يُولى اهتمام ضئيل جدًا لفسيولوجيا الاستماع. في الأزمات، لا يعالج الناس اللغة أساسًا. إنهم يستجيبون للنبرة، والإيقاع، والتنغيم، والتنفس، غالبًا قبل أن تتاح للمعرفة فرصة التدخل».
ويعكس هذا التصور أن الصوت يحمل معلومات تتجاوز الكلمات نفسها، وأن الاستجابة البشرية للنبرة تسبق التحليل الواعي، وهو ما قد تستغله أنظمة الذكاء الاصطناعي عند تحليل التسجيلات الصوتية.
سجل صوتي بحجم البصمة الرقمية
وتشير الدراسة إلى أن تسجيلات أصوات الأفراد أصبحت واسعة الانتشار، بدءًا من البريد الصوتي، مرورًا بمذكرات الصوت، وصولًا إلى مكالمات خدمة العملاء التي تُسجل لأغراض «التدريب والجودة». وبهذا، يتشكل سجل رقمي للأصوات «بأحجام مماثلة للبصمة الرقمية» التي تشمل المنشورات والمشتريات والنشاط عبر الإنترنت.
ويثير هذا الواقع تساؤلات حول ما الذي يمكن أن يحدث إذا أدركت شركات كبرى، مثل شركات التأمين، أنها قادرة على زيادة أرباحها عبر تسعير انتقائي يعتمد على معلومات مستخلصة من الأصوات باستخدام الذكاء الاصطناعي.
مسارات للحماية
في مواجهة هذه المخاطر، يقترح الباحثون حلولًا هندسية تبدأ بقياس ما الذي يكشفه الصوت بدقة. وقال باكستروم: «من الصعب بناء أدوات عندما لا تعرف ما الذي تحميه».
وأدى هذا التوجه إلى إنشاء مجموعة اهتمام تُعنى بالأمن والخصوصية في اتصالات الكلام، بهدف توفير إطار بحثي متعدد التخصصات لقياس المعلومات الكامنة في الكلام.
ويقترح باكستروم تقليل كمية البيانات المنقولة إلى الحد الأدنى الضروري لإنجاز المعاملة، عبر تحويل الصوت إلى نص يتضمن فقط المعلومات المطلوبة، أو الاكتفاء بإدخال البيانات دون الاحتفاظ بتسجيل المكالمة. وأوضح: «المعلومات المنقولة إلى الخدمة ستكون أقل قدر ممكن لإنجاز المهمة المطلوبة».
وفي الوقت نفسه، عبر عن قناعته بأن «واجهات وتقنيات الكلام يمكن استخدامها بطرق إيجابية للغاية»، مشيرًا إلى أن جزءًا كبيرًا من البحث يركز على تطوير تقنيات تتكيف مع المستخدمين لتكون أكثر طبيعية. لكنه شدد على أن التحدي لا يكمن في إزالة المعلومات الخاصة بالكامل، بل في تحديد «أي معلومات خاصة تُستخرج، ولأي استخدام».
بين التطوير والمساءلة
ويرى باحثون في التكنولوجيا أن الشعور بانتهاك الخصوصية، سواء عبر الاختراق أو عبر الإعلانات الموجهة، يعكس واقعًا يتجاوز ما يدركه المستخدمون. وتظهر هذه الدراسة، بحسب رؤيته، أن استهداف الأفراد قد يمتد إلى مجالات أكثر حميمية، مثل الصوت، في ظل تطور الذكاء الاصطناعي.
وبينما تستمر تقنيات الكلام في التطور لتصبح أكثر تكيفًا وطبيعية، يبقى التوازن بين الابتكار وحماية الخصوصية مرهونًا بوضوح الأطر الأخلاقية والهندسية التي تحكم استخدامها، وبمستوى الوعي العام بحجم المعلومات التي قد يحملها صوت يبدو، في ظاهره، مجرد وسيلة عابرة للتواصل.














