Por anos, criamos ferramentas digitais para desligar o pensamento das pessoas. Era para ser rápido, fácil, intuitivo. No início do século, a busca pela simplicidade funcionou. Naquela época, porém, pagávamos as compras no Allegro na entrega. Hoje, no aplicativo bancário, lidamos com valores cada vez maiores. A inteligência artificial, ou melhor, os cibercriminosos armados com ferramentas de IA, estão apenas esperando por isso.
Como se defender disso? Deixe as pessoas pensarem novamente.
Nos últimos meses, pesquisamos três conceitos independentes de métodos de pagamento inovadores na Symetria. Ao revisar os resultados de cada um desses estudos, cheguei a uma conclusão sombria. Como consumidores, não entendemos a tecnologia e o que fazemos em nossos dispositivos. Tanto que já ameaça nossa segurança digital. No entanto, o problema não são serviços mal projetados que não fornecem um nível adequado de segurança. Cada vez mais, é simplesmente o usuário que não tem mais conhecimento básico de tecnologia.
Usamos o aplicativo e pagamos com o telefone, passando por todo o processo, mesmo que não saibamos exatamente o que concordamos clicando em "ok". Não sabemos o que realmente está escondido sob o nome "NFC", mas neste caso, muitos provavelmente vão jogar a bola, porque podem dizer que não sabemos o que significa "wi-fi" ou "bluetooth". No entanto, a falta de consciência de que, ao definirmos o pagamento como "padrão", ele será usado toda vez que usarmos uma determinada função, pode - na melhor das hipóteses - contribuir para mal-entendidos e, no pior dos casos, resultar em compras indesejadas.
Na pesquisa realizada pela equipe da Symetria, também percebemos que muitas vezes os usuários agem por analogia. Se pagarmos com, por exemplo, BLIK, avaliamos e usamos novos sistemas da perspectiva de nossa experiência anterior. Assim, podemos interpretar mal o que estamos fazendo se o processo for semelhante. Na Symetria, testamos soluções que permitem verificar a idade dos compradores com cartão de crédito. Quando primeiro adicionavam um produto ao cesto e depois tinham de confirmar a idade através da aplicação do cartão, o sistema funcionava mal, porque intuitivamente queriam pagar nesta fase. Só a inversão do processo e a verificação antes de o consumidor escolher o produto fez com que quebrasse o padrão e pensasse para que ele realmente usa o cartão.
Cometemos erros que provocamos a nós mesmos, não parando nem por um momento, e a desconfiança é intensificada por lendas urbanas. Frequentemente, ouvem-se casos repetidos em algum lugar de que alguém pegou dinheiro de alguém no ônibus com um terminal portátil sem contato, que ao mesmo tempo nada tem a ver com a verdade. Isso ilustra melhor a escala de incompreensão da tecnologia.
Nós desligamos o cérebro humano
Nossa indústria, entendida como uma comunidade de pessoas relacionadas à usabilidade de produtos digitais, pesquisa de experiência do usuário ou design, levou mais ou menos inconscientemente ao fato de que os destinatários não têm conhecimento de como as ferramentas digitais funcionam. Tecnologias muito complicadas? Não completamente.
No entanto, há anos seguimos o conselho de Steve Krug: NÃO ME FAÇA PENSAR. Uma ideia tentadora para criar coisas simples e intuitivas. Serviços que permitem aos clientes atingir seus objetivos de forma rápida e instintiva matam o que há de mais humano neles - a capacidade de pensar. Alguém dirá novamente que é como andar de bicicleta: você não esquece. No entanto, temos muitos estudos que indicam diretamente que o cérebro, privado de estímulos, "fica preguiçoso" e realmente usa seus recursos em menor grau.
Apenas Steve Krug - um guru para muitos criadores de ferramentas digitais - publicou seu livro em 2000. O banco on-line estava apenas engatinhando e Allegro pagava com vale postal. Na primeira, segunda (2006) e terceira (2014) edições, partiu-se do mesmo pressuposto: mesmo que às vezes cometamos algum erro ao usar ferramentas digitais, no máximo teremos que apertar o botão "voltar". Infelizmente, nossas vidas já estão tão digitalizadas - trabalhamos, curamos e compramos online - que as consequências da automação não intencional podem ser muito mais graves.
Compartilhamos nossos dados sem saber o que e por quem eles são usados, e cada vez mais dados confidenciais, como dados de saúde, são baixados e salvos. Os aplicativos que coletam dados sobre nosso pulso, nível de açúcar, qualidade do sono, passos dados etc. não são visíveis apenas para nós. Além disso, o desenvolvimento de, por exemplo, telemedicina ou outras ferramentas digitais de saúde, que observamos durante a pandemia do COVID-19, significa que salvaremos e transferiremos cada vez mais dados. Provavelmente cuidaremos de nossa saúde, conforto físico e mental usando soluções digitais cada vez melhores.
Mas vamos nos lembrar também da segurança de nossos dados?
Se usarmos um aplicativo cujos criadores e administradores dão a máxima atenção ao aspecto de segurança, não seguiremos o mesmo caminho com outro software cujos "supervisores" não são tão confiáveis? Ou talvez a crença de que "alguém" cuida de nossa segurança ali nos torne crédulos, para não dizer ingênuos?
Estava seguro agora. A IA se passará por nossa amiga
Em apenas alguns minutos, você pode encontrar muitas histórias verdadeiras na Internet que, operando no "piloto automático", levam à sua perdição. Basta um SMS confusamente semelhante ao enviado pelo banco e o e-mail e as contas pessoais ou empresariais podem ser apagados. Isso só acontece com os outros? Isso pode acontecer com quase todos nós, porque em 2022 mais de 320 casos foram relatados à equipe nacional de resposta a incidentes de segurança de computadores (CERT Polska). casos de ameaças de segurança cibernética. Isso é mais de 180% a mais do que no ano anterior.
Estamos à beira de uma revolução com a disseminação da inteligência artificial de uma nova qualidade. Já temos o ChatGPT, com o qual o navegador Bing da Microsoft está equipado. O Google logo estará contra-atacando essa corrida armamentista com sua tecnologia Bard AI que está desenvolvendo. Mais ferramentas de terceiros também parecem ser apenas uma questão de tempo. Entender a tecnologia nos levará ainda mais longe. Isso coincide com um cibercrime cada vez mais sofisticado e generalizado que, alimentado por IA, está apenas esperando para ser mal interpretado, automatizado e inconsciente.
Os primeiros alertas já vêm de órgãos da UE como a Europol. A "Polícia Europeia" adverte contra o potencial uso indevido do chatbot em tentativas de phishing, desinformação e cibercrime. As autoridades italianas, por outro lado, iniciaram uma investigação sobre suspeitas de violação das regras de coleta de dados em aplicativos que usam inteligência artificial.
Fraude "neto" ou "policial" será ainda mais fácil. Não será difícil escrever um bot que ligue e fale com as pessoas de forma que elas não percebam que não há humanos do outro lado. Da mesma forma com deep fakes, ou seja, imagens ou vídeos criados usando IA. Gravar um filme em que um agente de seguros conhecido estende um contrato conosco, pede dados ou uma transferência vai dar um certo trabalho, mas com certeza o uso de IA vai certamente reduzir o custo dessas atividades e o tempo necessário para isso, e assim aumentar a "lucratividade" de tais ataques.
Esse cliente realmente perdoará uma marca em que confiou por muitos anos, mas agora não se protegeu contra tais ataques, por exemplo, não tomou medidas educacionais apropriadas?
Deixe as pessoas entenderem
Portanto, devemos mudar tanto a abordagem de criação de serviços digitais quanto a forma como as marcas se comunicam com os clientes. Hora de uma nova ideia: FAÇA-ME ENTENDER. É uma forma de projetar que possibilita ao usuário a "aprendibilidade" o máximo possível - o que pode ser traduzido como a facilidade de aprendizado do sistema pelo destinatário. Ao contrário do que parece, isso não envolve complicar as interfaces. Simplesmente, à direita, mas ao mesmo tempo potencialmente críticas e arriscadas, telas, "gatilhos" devem aparecer nas telas, ou seja, mensagens na forma de provocações que irão aguçar a atenção do usuário. Eles o farão pensar no que está fazendo agora e dar esse passo conscientemente. O design deve centrar-se na criação de “reforçadores” contextuais da atenção, mas também na possibilidade imediata de aquisição de conhecimento.
Como resolver na prática? Mesmo usando os recursos de chatbots inteligentes. Ao assinar, por exemplo, um contrato de locação online, podemos questionar tal chat sobre as disposições do documento que não entendemos. Ele nos responderá e se certificará de que obtivemos o conhecimento necessário, e toda a conversa será gravada em caso de reclamação. O cliente sabe mais porque, por exemplo, o ponto exato do contrato foi indicado a ele e ele não precisa navegar por todo o documento. Ao mesmo tempo, economizamos seu tempo, mas também construímos confiança, mostrando que não temos nada a esconder e controlamos a IA usada para que seja uma ferramenta útil.
Vamos por aqui? A primeira impressão do uso das atuais ferramentas de IA pode gerar dúvidas. O ChatGPT e outros programas desse tipo geram respostas imprecisas e, embora provavelmente sejam cada vez menos nos próximos meses, uma pessoa sempre pode fazer uma pergunta que confundirá o algoritmo. E então uma máquina que dificilmente diz "não sei" apresentará uma resposta. Além disso, existe a preocupação de que as pessoas possam confiar demais em softwares "inteligentes".
De acordo com a Microsoft, é bom que a IA às vezes esteja errada. Numa apresentação online sobre as novas funcionalidades do Copilot, que serão construídas em i.a. em suítes de escritório, a gerência da empresa mencionou a tendência do software de gerar respostas imprecisas. No entanto, apresentou-se como algo que pode ser útil. Segundo a empresa, desde que as pessoas percebam que as respostas do assistente podem estar distorcidas, elas podem corrigir as imprecisões. O tempo gasto nas alterações será menor do que escrever o texto você mesmo desde a primeira frase. Assim, o ChatGPT permitirá que você envie e-mails ou termine os slides da apresentação mais rapidamente.
Do ponto de vista do usuário, no entanto, esta não é uma solução ideal. Escolher o caminho mais fácil, usando dicas de IA sem pensar, nos fará cometer erros mais de uma vez. É metade do problema quando é um erro em um assunto menor, mas confiamos à inteligência artificial aspectos cada vez mais sérios de nossas vidas. A compreensão de que a tecnologia é falível deve chegar até nós muito antes do ditado "um polonês sábio após o dano". Neste caso, o dano pode ser muito caro.
Autor: Krzysztof Kozak, especialista em inovação, Symetria
Ele assessora empresas e instituições na definição de direcionamentos estratégicos. No trabalho, ele combina as conquistas das humanidades com o conhecimento das tecnologias mais recentes. Graças a esta mistura, ajuda a reagir antecipadamente às mudanças e a escolher direções de desenvolvimento mais seguras a longo prazo. Ele é especialista na área de Phygital - a interpenetração progressiva de elementos físicos, contatos interpessoais e soluções digitais. Também promove uma abordagem para a tomada de decisões estratégicas e de projeto com base em medidas de comportamento do cliente e métricas de negócios. Está associado à agência Symetria há 11 anos, onde trabalhou para as maiores marcas polacas e internacionais: BLIK, Mastercard, CANAL+, ING, Orange, Allegro e Lidl.