Siguenos en o únete al nuestro

Durante años, hemos creado herramientas digitales para que la gente deje de pensar. Se suponía que iba a ser rápido, fácil e intuitivo. A principios de siglo, la búsqueda de la simplicidad funcionó. En aquel entonces, sin embargo, pagábamos las compras en Allegro al momento de la entrega. Hoy en día, negociamos cantidades cada vez mayores en aplicaciones bancarias. La inteligencia artificial, o más bien los ciberdelincuentes armados con herramientas de inteligencia artificial, lo están esperando.

¿Cómo defenderse de esto? Dejemos que la gente piense de nuevo.

Durante los últimos meses, en Symmetria hemos estado investigando tres conceptos independientes de métodos de pago innovadores. Al revisar los resultados de cada uno de estos estudios, llegué a una conclusión sombría. Como público, no entendemos la tecnología ni lo que hacemos en nuestros dispositivos. Hasta tal punto que ya amenaza nuestra seguridad digital. Sin embargo, el problema no son los servicios mal diseñados que no proporcionan un nivel adecuado de seguridad. Cada vez más, es simplemente el usuario el que ya no tiene ni siquiera conocimientos básicos de tecnología.
Usamos la aplicación y pagamos por teléfono, realizando todo el proceso, aunque no sepamos realmente qué aceptamos al hacer clic en "ok". No sabemos qué significa realmente el nombre "NFC", pero en este caso muchas personas probablemente se perderán la pelota porque pueden decir que no sabemos realmente qué significa "wi-fi" o "bluetooth". Sin embargo, la falta de conciencia de que cuando configuramos un pago como "predeterminado", se utilizará cada vez que utilicemos una función determinada puede, en el mejor de los casos, dar lugar a malentendidos y, en el peor de los casos, dar lugar a compras no deseadas.
En una investigación realizada por el equipo de Symmetria, también notamos que los usuarios a menudo actúan por analogía. Si pagamos, por ejemplo, con BLIK, evaluamos y utilizamos nuevos sistemas desde la perspectiva de nuestra experiencia anterior. Por eso podemos malinterpretar lo que estamos haciendo si el proceso es similar. En Symmetria, probamos soluciones que le permitirán verificar la edad de los compradores mediante una tarjeta de crédito. Cuando agregaron un producto al carrito por primera vez y luego tuvieron que confirmar su edad deslizando la tarjeta, el sistema funcionó mal porque intuitivamente querían pagar en esta etapa. Sólo al revertir el proceso y verificarlo antes de que los consumidores eligieran un producto, los consumidores rompieron el molde y pensaron para qué estaban usando realmente la tarjeta.
Cometemos errores que nosotros mismos provocamos, sin parar ni un momento, y las leyendas urbanas intensifican nuestra desconfianza. A menudo se repiten casos de alguien que le quitó dinero a alguien en el autobús utilizando un terminal portátil sin contacto, que nada tienen que ver con la verdad. Esto ilustra mejor la magnitud de la incomprensión de la tecnología.

Hemos apagado el cerebro humano

Nuestra industria, entendida como una comunidad de personas involucradas en la usabilidad de productos digitales, la investigación o el diseño de la experiencia de usuario, ha llevado de manera más o menos inconsciente a que los destinatarios no tengan conocimiento de cómo funcionan las herramientas digitales. ¿Tecnologías demasiado complicadas? No precisamente.
Sin embargo, llevamos años siguiendo el consejo de Steve Krug: NO ME HAGAS PENSAR. La tentadora idea de crear cosas que sean sencillas e intuitivas. Los servicios que permiten a los clientes alcanzar sus objetivos de forma rápida e instintiva también matan lo que es más humano: la capacidad de pensar. Alguien volverá a decir que es como andar en bicicleta: nunca lo olvidas. Sin embargo, disponemos de demasiados estudios que indican directamente que el cerebro privado de estímulos "se vuelve perezoso" y, de hecho, utiliza sus recursos en menor medida.
Pero Steve Krug, un gurú para muchos creadores de herramientas digitales, publicó su libro en 2000. La banca en línea estaba apenas en su infancia y pagábamos en Allegro mediante giro postal. En la primera, segunda (2006) y tercera (2014) ediciones se partió del mismo supuesto: aunque a veces nos equivoquemos al utilizar herramientas digitales, como máximo tendremos que pulsar el botón "atrás". Desafortunadamente, nuestras vidas ya están tan digitalizadas (trabajamos, recibimos tratamiento y compramos en línea) que las consecuencias de una automatización involuntaria pueden ser mucho más graves.
Compartimos nuestros datos sin siquiera saber para qué se utilizan ni quién, y cada vez se descargan y guardan datos más confidenciales, por ejemplo, datos de salud. Las aplicaciones que recopilan datos sobre nuestro pulso, nivel de azúcar, calidad del sueño, pasos dados, etc., contrariamente a nuestra imaginación, no son visibles solo para nosotros. Además, el desarrollo de, por ejemplo, la telemedicina u otras herramientas de salud digitales, que hemos observado durante la pandemia de COVID-19, significará que guardaremos y transmitiremos cada vez más datos. Probablemente cuidaremos de nuestra salud y bienestar físico y mental utilizando soluciones digitales cada vez mejores.

¿Pero nos acordaremos también de la seguridad de nuestros datos?

Si utilizamos una aplicación cuyos creadores y administradores prestan la máxima atención al aspecto de seguridad, ¿no seguiremos el mismo camino con otro software cuyos "supervisores" no sean tan fiables? ¿O tal vez la creencia de que "alguien" se preocupa por nuestra seguridad nos hará crédulos o, para decirlo sin rodeos, ingenuos?

Ahora estaba a salvo. La IA se hace pasar por nuestra amiga

Bastan unos minutos para encontrar en Internet muchas historias reales sobre cómo operar en "piloto automático" conduce a la ruina. Todo lo que necesita es un SMS que sea confusamente similar al enviado por el banco, y su correo electrónico y sus cuentas personales o de empresa podrán borrarse. ¿Solo les pasa a otros? Nos puede pasar a casi todos, porque en 2022 se notificaron más de 320 incidentes al Equipo nacional de respuesta a incidentes de seguridad informática (CERT Polska). Casos de amenazas a la ciberseguridad. Esto es más del 180% más que el año anterior.
Estamos en el umbral de una revolución en la difusión de nueva inteligencia artificial de calidad. Ya contamos con ChatGPT, que está incluido en el navegador Bing de Microsoft. Google pronto contraatacará en esta carrera armamentista gracias a su tecnología Bard AI. Las herramientas adicionales de terceros también parecen ser sólo cuestión de tiempo. Comprender la tecnología nos llevará aún más lejos. Esto coincide con un ciberdelito cada vez más sofisticado y generalizado que, impulsado por la IA, sólo espera nuestra incomprensión, automatización e inconsciencia.
Las primeras advertencias ya provienen de organismos de la UE, como Europol. La 'Policía Europea' advierte contra el posible uso indebido del chatbot en intentos de phishing, desinformación y ciberdelito. Sin embargo, los funcionarios italianos iniciaron una investigación bajo sospecha de violar las reglas de recopilación de datos en aplicaciones que utilizan inteligencia artificial.
Fraude "para un nieto" o "para un policía" será aún más fácil. Escribir un bot que llame y hable con las personas de tal manera que no se den cuenta de que no hay ningún ser humano al otro lado de la línea no será difícil. Lo mismo ocurre con los deep fakes, es decir, imágenes o vídeos creados con IA. Grabar un vídeo en el que un agente de seguros que conocemos nos extiende el contrato, nos pide datos o una transferencia requerirá algo de trabajo, pero el uso de IA definitivamente reducirá el coste de dichas actividades y el tiempo necesario, y por tanto aumentará la “rentabilidad”. de tales ataques.
¿Un cliente así realmente perdonará a una marca en la que confió durante muchos años, pero que ahora no se protegió contra tales ataques, por ejemplo, no tomó las medidas educativas adecuadas?

Dejemos que la gente entienda

Por lo tanto, deberíamos cambiar tanto el enfoque de creación de servicios digitales como la forma en que las marcas se comunican con los clientes. Es hora de una nueva idea: HAZME ENTENDER. Este es un método de diseño que permite a los usuarios aprender tanto como sea posible la "capacidad de aprendizaje", que puede traducirse como la facilidad con la que el usuario puede aprender el sistema. Contrariamente a lo que parece, esto no implica complicar las interfaces. En pocas palabras, en las pantallas de la derecha deberían aparecer "desencadenantes", pero también momentos potencialmente críticos y riesgosos, es decir, mensajes en forma de burlas que agudizarán la atención del usuario. Le harán pensar en lo que está haciendo ahora y dar este paso de forma consciente. El diseño debe centrarse en crear "potenciadores" contextuales de la atención, pero también en la oportunidad inmediata de adquirir conocimientos.
¿Cómo solucionar esto en la práctica? Por ejemplo, utilizando las capacidades de los chatbots inteligentes. Al firmar, por ejemplo, un contrato de arrendamiento online, podemos preguntar en el chat sobre disposiciones del documento que no entendemos. Él nos responderá y se asegurará de que hayamos adquirido los conocimientos necesarios, y toda la conversación quedará grabada en caso de reclamación. El cliente sabe más porque, por ejemplo, se le ha mostrado el punto exacto del contrato y no tiene que revisar todo el documento. Al mismo tiempo, le ahorramos tiempo, pero también generamos confianza al demostrarle que no tenemos nada que ocultar y que controlamos la IA utilizada para convertirla en una herramienta útil.
¿Vamos en esta dirección? La primera impresión al utilizar las herramientas actuales de IA puede generar dudas. ChatGPT y otros programas de este tipo generan respuestas inexactas, y aunque probablemente habrá menos en los próximos meses, un humano siempre puede hacer una pregunta que desvíe el algoritmo. Y entonces la máquina, que apenas dice "No sé", dará una respuesta. Además, puede preocupar que la gente confíe demasiado en el software "inteligente".
Según Microsoft, es bueno que la IA a veces se equivoque. En una presentación online sobre las nuevas funciones de Copilot que se incorporarán, entre otras: En las suites ofimáticas, los ejecutivos de la empresa mencionaron la tendencia del software a producir respuestas inexactas. Sin embargo, lo presentó como algo que podría resultar útil. Según la empresa, siempre que las personas se den cuenta de que las respuestas del asistente pueden ser engañosas, pueden editar las imprecisiones. El tiempo dedicado a los cambios será menor que el de escribir el texto usted mismo desde la primera frase. Así, ChatGPT te permitirá enviar correos electrónicos o finalizar las diapositivas de la presentación más rápido.
Sin embargo, desde el punto de vista de los usuarios, esta no es una solución ideal. Tomar la salida más fácil y utilizar sin pensar las sugerencias de la IA hará que cometamos errores más de una vez. No está mal si se trata de un error en un asunto menor, pero cada vez confiamos aspectos más serios de nuestras vidas a la inteligencia artificial. La comprensión de que la tecnología es falible debería llegarnos mucho antes que el dicho "un polaco sabio después de un desastre". En este caso, el daño puede resultar muy costoso.
Autor: Krzysztof Kozak, experto en innovación, Symmetria
Asesora a empresas e instituciones en el establecimiento de direcciones estratégicas. En el trabajo combina los logros de las humanidades con el conocimiento de las últimas tecnologías. Gracias a esta combinación, se ayuda a reaccionar con antelación a los cambios y a elegir direcciones de desarrollo más seguras a largo plazo. Se especializa en el área de Phygital: la interpenetración progresiva de elementos físicos, contactos interpersonales y soluciones digitales. También promueve un enfoque para la toma de decisiones estratégicas y de diseño basadas en medidas de comportamiento del cliente y métricas comerciales. Ha estado asociado con la agencia Symmetria durante 11 años, donde trabajó para las marcas polacas e internacionales más importantes: BLIK, Mastercard, CANAL+, ING, Orange, Allegro y Lidl.
5/5 - (9 notas)

Tokeny.pl es un portal de criptomonedas dirigido por un equipo de entusiastas de las criptomonedas. Nuestra principal área de interés son las criptomonedas, tokens, tokens personales y la tecnología blockchain. En nuestro sitio web presentaremos reseñas independientes de criptomonedas y artículos interesantes del mercado. Además, presentamos las tasas actuales de todas las criptomonedas. El sitio web también incluye una calculadora multifuncional para criptomonedas y monedas tradicionales.

La información publicada en el sitio web Tokeny.pl tiene únicamente fines informativos y no constituye asesoramiento de inversión ni recomendación financiera en el sentido de la ley, incluido el Reglamento del Ministro de Finanzas del 19 de octubre de 2005. El contenido publicado no constituye una oferta de inversión.

Tokeny.pl no es responsable de las decisiones tomadas sobre la base de la información proporcionada. Las inversiones en criptomonedas, instrumentos OTC y CFD implican el riesgo de perder parte o la totalidad del capital invertido. Las ganancias en este tipo de mercados dependen de la volatilidad del mercado y del mecanismo de apalancamiento utilizado, lo que puede provocar pérdidas que superen el valor del depósito inicial. En consecuencia, dichas inversiones pueden resultar inapropiadas para personas sin la experiencia adecuada o la tolerancia al riesgo.

Copyright © 2018 - 2024 Tokeny.pl

Mi boletin

Suscríbase para recibir actualizaciones y boletines

© 2025 Su Empresa. Reservados todos los derechos.