لسنوات، قمنا بإنشاء أدوات رقمية لمنع الناس من التفكير. كان من المفترض أن تكون سريعة وسهلة وبديهية. في بداية القرن، نجح السعي وراء البساطة. ومع ذلك، في ذلك الوقت، كنا ندفع ثمن المشتريات على Allegro عند التسليم. واليوم، نقوم بالتداول بمبالغ أكبر وأكبر في التطبيقات المصرفية. الذكاء الاصطناعي، أو بالأحرى مجرمو الإنترنت المسلحون بأدوات الذكاء الاصطناعي، ينتظرون ذلك.
كيف تدافع عن نفسك ضد هذا؟ دعونا ندع الناس يفكرون مرة أخرى.
على مدار الأشهر القليلة الماضية، قمنا في Symetria بالبحث في ثلاثة مفاهيم مستقلة لطرق الدفع المبتكرة. وعندما راجعت نتائج كل من هذه الدراسات، توصلت إلى نتيجة قاتمة. كجمهور، نحن لا نفهم التكنولوجيا وما نفعله على أجهزتنا. إلى حد أنه يهدد بالفعل أمننا الرقمي. ومع ذلك، فإن المشكلة ليست في الخدمات سيئة التصميم التي لا توفر مستوى مناسبًا من الأمان. وفي كثير من الأحيان، أصبح المستخدم ببساطة هو الذي لم يعد لديه حتى المعرفة الأساسية بالتكنولوجيا.
نحن نستخدم التطبيق وندفع عبر الهاتف، ونجري العملية بأكملها، على الرغم من أننا لا نعرف حقًا ما الذي نوافق عليه بالنقر فوق "موافق". لا نعرف ما الذي يعنيه اسم "NFC" فعليًا، ولكن في هذه الحالة من المحتمل أن يفوت العديد من الأشخاص الكرة لأنهم قد يقولون إننا لا نعرف حقًا ما يعنيه "wi-fi" أو "Bluetooth". ومع ذلك، فإن عدم الوعي بأنه عندما نقوم بتعيين الدفع على أنه "افتراضي"، فإنه سيتم استخدامه في كل مرة نستخدم فيها وظيفة معينة قد يؤدي - في أحسن الأحوال - إلى سوء فهم، وفي أسوأ الحالات يؤدي إلى عمليات شراء غير مرغوب فيها.
وفي البحث الذي أجراه فريق Symetria، لاحظنا أيضًا أن المستخدمين غالبًا ما يتصرفون عن طريق القياس. إذا دفعنا باستخدام BLIK، على سبيل المثال، فإننا نقوم بتقييم واستخدام أنظمة جديدة من منظور تجربتنا السابقة. لذلك قد نخطئ في تفسير ما نقوم به إذا كانت العملية مشابهة. في Symetria، قمنا باختبار الحلول التي ستسمح لك بالتحقق من عمر المشترين باستخدام بطاقة الائتمان. عندما أضافوا منتجًا إلى سلة التسوق لأول مرة ثم اضطروا إلى تأكيد عمره عن طريق تمرير البطاقة، كان النظام يعمل بشكل سيئ لأنهم أرادوا بشكل حدسي الدفع في هذه المرحلة. فقط من خلال عكس العملية والتحقق منها قبل أن يختار المستهلكون المنتج، تمكن المستهلكون من كسر القالب والتفكير في الغرض الذي كانوا يستخدمون البطاقة من أجله بالفعل.
نحن نرتكب الأخطاء التي نستفزها بأنفسنا، دون أن نتوقف ولو للحظة واحدة، وتزيد الأساطير الحضرية من عدم ثقتنا. غالبًا ما نسمع حالات متكررة في مكان ما حول قيام شخص ما بأخذ أموال من شخص ما في الحافلة باستخدام جهاز محمول لا يلامس، ولا علاقة لها بالحقيقة. وهذا يوضح بشكل أفضل حجم سوء فهم التكنولوجيا.
لقد قمنا بإيقاف تشغيل الدماغ البشري
إن صناعتنا، التي يُنظر إليها على أنها مجتمع من الأشخاص المشاركين في إمكانية استخدام المنتجات الرقمية، وأبحاث تجربة المستخدم وتصميمها، أدت بشكل أو بآخر إلى حقيقة أن المتلقين ليس لديهم معرفة بكيفية عمل الأدوات الرقمية. التقنيات معقدة للغاية؟ ليس حقيقيًا.
ومع ذلك، فإننا نتبع نصيحة ستيف كروج لسنوات: لا تجعلني أفكر. الفكرة المغرية لإنشاء أشياء بسيطة وبديهية. الخدمات التي تسمح للعملاء بتحقيق أهدافهم بسرعة وبشكل غريزي تقتل أيضًا ما هو أكثر إنسانية - القدرة على التفكير. سيقول شخص ما مرة أخرى إن الأمر يشبه ركوب الدراجة: لن تنساها أبدًا. ومع ذلك، لدينا الكثير من الدراسات التي تشير بشكل مباشر إلى أن الدماغ المحروم من المحفزات "يصاب بالكسل" ويستخدم موارده فعليًا بدرجة أقل.
لكن ستيف كروج - خبير العديد من مبدعي الأدوات الرقمية - نشر كتابه في عام 2000. وكانت الخدمات المصرفية عبر الإنترنت في مراحلها الأولى، وكنا ندفع مقابل Allegro عن طريق البريد. في الإصدارات الأولى والثانية (2006) والثالثة (2014)، كان الأمر مبنيًا على نفس الافتراض: حتى لو ارتكبنا خطأً في بعض الأحيان عند استخدام الأدوات الرقمية، فسنضطر على الأكثر إلى الضغط على زر "الرجوع". ولكن من المؤسف أن حياتنا أصبحت رقمية بالفعل إلى الحد الذي جعلنا نعمل ونحصل على العلاج ونتسوق عبر الإنترنت، حتى أن العواقب المترتبة على الأتمتة غير المقصودة قد تكون أكثر خطورة.
نحن نشارك بياناتنا دون أن نعرف حتى الغرض الذي تُستخدم من أجله ومن يقوم بتنزيلها، ويتم تنزيل وحفظ البيانات الحساسة بشكل متزايد، مثل البيانات الصحية. التطبيقات التي تجمع بيانات حول نبضنا ومستوى السكر ونوعية النوم والخطوات التي نتخذها وما إلى ذلك، خلافًا لخيالنا، ليست مرئية لنا وحدنا. علاوة على ذلك، فإن تطوير التطبيب عن بعد أو أدوات الصحة الرقمية الأخرى، على سبيل المثال، والذي لاحظناه خلال جائحة كوفيد-19، سيعني أننا سنحفظ وننقل المزيد والمزيد من البيانات. من المحتمل أن نعتني بصحتنا وراحتنا الجسدية والعقلية من خلال استخدام حلول رقمية أفضل بشكل متزايد.
ولكن هل سنتذكر أيضًا أمان بياناتنا؟
إذا استخدمنا تطبيقًا واحدًا يولي منشئوه ومسؤولوه أقصى قدر من الاهتمام للجانب الأمني، ألن نتبع نفس المسار مع البرامج الأخرى التي لا يمكن الاعتماد على "المشرفين عليها"؟ أو ربما الاعتقاد بأن "شخصًا ما" يهتم بسلامتنا سيجعلنا ساذجين، أو بصراحة، ساذجين؟
لقد كانت آمنة الآن. يتظاهر الذكاء الاصطناعي بأنه صديقنا
بضع دقائق كافية للعثور على العديد من القصص الحقيقية على الإنترنت حول كيف يؤدي التشغيل على "الطيار الآلي" إلى الخراب. كل ما يتطلبه الأمر هو رسالة نصية قصيرة تشبه بشكل مربك تلك التي يرسلها البنك، ويمكن مسح بريدك الإلكتروني وحساباتك الشخصية أو حسابات الشركة. يحدث فقط للآخرين؟ يمكن أن يحدث ذلك لنا جميعًا تقريبًا، لأنه في عام 2022، تم الإبلاغ عن أكثر من 320 حادث إلى الفريق الوطني للاستجابة لحوادث أمن الكمبيوتر (CERT Polska). حالات تهديد الأمن السيبراني. وهذا يزيد بنسبة 180٪ عن العام السابق.
نحن نقف على عتبة ثورة في انتشار الذكاء الاصطناعي عالي الجودة. لدينا بالفعل ChatGPT، والذي تم تضمينه في متصفح Microsoft Bing. ستقوم Google قريبًا بالهجوم المضاد في سباق التسلح هذا بفضل تقنية Bard AI الخاصة بها. يبدو أيضًا أن أدوات الطرف الثالث الإضافية هي مسألة وقت فقط. إن فهم التكنولوجيا سوف يأخذنا إلى أبعد من ذلك. ويتزامن هذا مع الجرائم السيبرانية المتطورة والمنتشرة على نحو متزايد، والتي، مدعومة بالذكاء الاصطناعي، تنتظر فقط سوء الفهم والأتمتة وعدم الوعي لدينا.
التحذيرات الأولى تأتي بالفعل من هيئات الاتحاد الأوروبي، مثل يوروبول. تحذر "الشرطة الأوروبية" من سوء الاستخدام المحتمل لبرنامج الدردشة الآلية في محاولات التصيد والتضليل والجرائم الإلكترونية. ومع ذلك، بدأ المسؤولون الإيطاليون تحقيقًا للاشتباه في انتهاك قواعد جمع البيانات في التطبيقات التي تستخدم الذكاء الاصطناعي.
سيكون الاحتيال "من أجل الحفيد" أو "من أجل الشرطي" أسهل. إن إنشاء روبوت يتصل بالناس ويتحدث إليهم بطريقة تجعلهم غير مدركين لعدم وجود إنسان على الطرف الآخر لن يكون أمرًا صعبًا. وبالمثل مع التزييف العميق، أي الصور أو مقاطع الفيديو التي تم إنشاؤها باستخدام الذكاء الاصطناعي. تسجيل فيديو يقوم فيه وكيل التأمين الذي نعرفه بتمديد العقد معنا، أو طلب البيانات أو النقل، سيتطلب بعض العمل، لكن استخدام الذكاء الاصطناعي سيقلل بالتأكيد تكلفة مثل هذه الأنشطة والوقت اللازم، وبالتالي زيادة “الربحية”. من مثل هذه الهجمات.
هل سيسامح هذا العميل حقًا العلامة التجارية التي وثق بها لسنوات عديدة، لكنه الآن لم يحمي نفسه من مثل هذه الهجمات، على سبيل المثال لم يتخذ الخطوات التعليمية المناسبة؟
دعونا ندع الناس يفهمون
لذلك، يجب علينا تغيير النهج المتبع في إنشاء الخدمات الرقمية وطريقة تواصل العلامات التجارية مع العملاء. حان الوقت لفكرة جديدة: اجعلني أفهم. هذه طريقة تصميم تمكن المستخدمين من تعلم "قابلية التعلم" قدر الإمكان - والتي يمكن ترجمتها على أنها السهولة التي يمكن للمستخدم من خلالها تعلم النظام. وخلافا للمظاهر، فإن هذا لا ينطوي على تعقيد الواجهات. ببساطة، يجب أن تظهر "المحفزات" على الشاشات الموجودة على اليمين، ولكن من المحتمل أيضًا أن تظهر لحظات حرجة ومحفوفة بالمخاطر، أي رسائل في شكل تهكم من شأنه أن يلفت انتباه المستخدم. سوف يجعلونه يفكر فيما يفعله الآن ويتخذ هذه الخطوة بوعي. يجب أن يركز التصميم على إنشاء "معززات" سياقية للانتباه، ولكن أيضًا على الفرصة المباشرة لاكتساب المعرفة.
كيفية حل هذا في الممارسة العملية؟ على سبيل المثال، من خلال استخدام قدرات روبوتات الدردشة الذكية. عند توقيع عقد إيجار عبر الإنترنت، على سبيل المثال، يمكننا أن نسأل الدردشة عن أحكام الوثيقة التي لا نفهمها. وسوف يجيبنا ويتأكد من حصولنا على المعرفة اللازمة، وسيتم تسجيل المحادثة بأكملها في حالة وجود شكوى. يعرف العميل أكثر لأنه، على سبيل المثال، تم توضيح النقطة المحددة للعقد له ولا يتعين عليه الاطلاع على المستند بأكمله. وفي الوقت نفسه، نوفر وقته، ولكن أيضًا نبني الثقة من خلال إظهار أنه ليس لدينا ما نخفيه وأننا نتحكم في الذكاء الاصطناعي المستخدم لجعله أداة مفيدة.
هل نحن نسير في هذا الاتجاه؟ قد يثير الانطباع الأول عن استخدام أدوات الذكاء الاصطناعي الحالية الشكوك. يقوم برنامج ChatGPT وغيره من البرامج من هذا النوع بتوليد إجابات غير دقيقة، وعلى الرغم من أنه من المحتمل أن يكون هناك عدد أقل منها في الأشهر المقبلة، إلا أنه يمكن للإنسان دائمًا طرح سؤال من شأنه أن يخرج الخوارزمية عن المسار الصحيح. ومن ثم فإن الآلة، التي بالكاد تقول "لا أعرف"، سوف تأتي بالإجابة. بالإضافة إلى ذلك، قد تكون هناك مخاوف من أن الناس قد يضعون ثقة كبيرة جدًا في البرامج "الذكية".
وفقًا لمايكروسوفت، من الجيد أن الذكاء الاصطناعي يخطئ في بعض الأحيان. في عرض تقديمي عبر الإنترنت حول ميزات Copilot الجديدة التي سيتم دمجها، من بين ميزات أخرى: في مجموعات المكاتب، ذكر المسؤولون التنفيذيون في الشركة ميل البرنامج إلى إنتاج استجابات غير دقيقة. ومع ذلك، فقد عرضته على أنه شيء يمكن أن يكون مفيدًا. ووفقا للشركة، طالما أن الناس يدركون أن إجابات المساعد قد تكون مضللة، فيمكنهم تعديل الأخطاء. سيكون الوقت الذي تقضيه في التغييرات أقصر من كتابة النص بنفسك من الجملة الأولى. وبالتالي، سيسمح لك ChatGPT بإرسال رسائل البريد الإلكتروني أو إنهاء شرائح العرض التقديمي بشكل أسرع.
ومع ذلك، من وجهة نظر المستخدمين، هذا ليس الحل الأمثل. سيؤدي اتباع الطريق السهل واستخدام اقتراحات الذكاء الاصطناعي دون وعي إلى ارتكاب الأخطاء أكثر من مرة. ليس أمرًا سيئًا أن يكون خطأً في أمر بسيط، لكننا نعهد بالجوانب الأكثر جدية في حياتنا إلى الذكاء الاصطناعي. إن فهم حقيقة أن التكنولوجيا غير معصومة من الخطأ يجب أن يصل إلينا في وقت أبكر بكثير مما ورد في مقولة "قطب حكيم بعد الكارثة". وفي هذه الحالة، يمكن أن يكون الضرر مكلفًا للغاية.
المؤلف: كرزيستوف كوزاك، خبير الابتكار، Symetria
ويقدم المشورة للشركات والمؤسسات في تحديد التوجهات الاستراتيجية. يجمع في العمل بين إنجازات العلوم الإنسانية ومعرفة أحدث التقنيات. وبفضل هذا المزيج، فإنه يساعد على الاستجابة للتغيرات مقدمًا واختيار اتجاهات تطوير أكثر أمانًا على المدى الطويل. وهو متخصص في مجال Phygital - التداخل التدريجي للعناصر المادية والاتصالات بين الأشخاص والحلول الرقمية. كما أنه يعزز نهجًا لاتخاذ القرارات الإستراتيجية والتصميمية بناءً على مقاييس سلوك العملاء ومقاييس الأعمال. وقد ارتبط بوكالة Symetria لمدة 11 عامًا، حيث عمل لدى أكبر العلامات التجارية البولندية والعالمية: BLIK، وMastercard، وCANAL+، وING، وOrange، وAllegro، وLidl.