Zendesk é um cliente do Business Reporter.
Pablo Kenney, vice-presidente da Zendesk, explica por que a confiança é uma consideração tão importante para as organizações que estão considerando o uso de IA generativa.
Repórter de negócios: Quais são os benefícios da IA generativa para as organizações?
Paulo Kenney: As organizações estão ansiosas para criar experiências online que façam as pessoas se sentirem bem. Tomemos como exemplo o suporte ao cliente: as organizações precisam entender o que um cliente precisa e por que ele está fazendo uma pergunta específica. A resposta, seja ela um chatbot ou um humano, precisa ser capaz de fornecer as informações corretas de forma rápida, precisa e completa. É aqui que a IA pode desempenhar um papel tão importante: pode encontrar os dados certos e gerar novas informações através da análise dos dados existentes. E, na melhor das hipóteses, pode fazê-lo com mais rapidez e precisão do que qualquer ser humano.
Mas a IA não é útil apenas para interações externas. Também pode ser uma ferramenta vital para a experiência do funcionário (EX). Muitos empregos contêm tarefas rotineiras e mundanas. A IA pode aumentar a produtividade e o moral ao assumir essas tarefas rotineiras, permitindo que as pessoas se concentrem nas partes do seu trabalho onde acrescentam valor humano real – as partes de que mais gostam. Mais do que isso, a IA dá às pessoas acesso a informações que de outra forma não teriam – análise profunda de dados; novos cenários que podem ser criados em tempo real. Isto dá às pessoas a oportunidade de fazer coisas que simplesmente não são possíveis sem IA.
BR: Por que a confiança é tão importante para organizações que usam IA generativa?
PC: Nossos clientes desejam fornecer serviços de alta qualidade aos seus clientes. Subjacentes à sua capacidade para o fazer estão alguns princípios básicos que envolvem confiança: confiança no tratamento seguro dos seus dados pessoais e confiança no tratamento justo. Se seus clientes não confiam em você, você não manterá muitos deles. As empresas que perdem clientes sabem muito bem que é um desafio reconquistá-los.
Além de trabalharem para manter a confiança, as empresas precisam de se lembrar que, para os seus clientes, as ferramentas de IA generativa são como um terceiro na sala: os clientes precisam de confiar na IA generativa tanto quanto confiam em qualquer ser humano com quem estejam a lidar. É claro que isso significa que quaisquer interações com chatbots alimentados por IA devem ser apropriadas, precisas e seguras.
BR: Como as organizações podem construir confiança nos sistemas de IA?
PC: Construindo IA responsável faz parte do nosso compromisso de fornecer aos clientes produtos e soluções confiáveis. Na nossa Processo de desenvolvimento de IA, os aspectos mais importantes são a transparência e a responsabilização. A transparência envolve algumas coisas. Você precisa dizer às pessoas quando elas estão lidando com uma IA – mesmo que pareça humana. E você precisa explicar às pessoas o que envolvem as interações com uma IA, por exemplo, o que acontecerá com seus dados e como as decisões serão tomadas.
As empresas devem responsabilizar-se pelas decisões que tomam. Muitas pessoas podem ser responsáveis por diferentes partes de uma decisão – raramente haverá apenas uma pessoa que decide. Portanto, deve haver um processo em que a organização como um todo aceite a responsabilidade e em que os consumidores possam contestar uma decisão com a qual estão insatisfeitos, interagindo com a organização como um todo, em vez de serem passadas de departamento para departamento.
BR: O que pode destruir a confiança? O que acontece se a confiança for quebrada?
PK: Violações de dados pessoais, chatbots exibindo humor inadequado ou falhas de IA na resolução oportuna de problemas podem quebrar a confiança. Os sistemas de IA que não demonstram empatia podem ser muito frustrantes para os clientes, mesmo que estes saibam que estão a lidar com uma máquina.
Todas estas coisas podem destruir a confiança, especialmente se a experiência anterior com produtos ou com humanos numa organização já tiver prejudicado a confiança. E uma vez destruída a confiança, será muito difícil fazer com que as pessoas queiram interagir com você, comprar coisas de você, no futuro.
BR: Como as organizações podem gerenciar dados pessoais para garantir que os sistemas de IA sejam confiáveis?
PC: À medida que cresce a procura por experiências personalizadas e orientadas pela IA, as empresas consideram cada vez mais importante dados seguros em toda a jornada do cliente. Existem alguns princípios básicos que precisam ser seguidos: privacidade desde a concepção e segurança desde a concepção. Ajudamos nossos clientes comerciais a segui-los para que seus clientes possam confiar neles. Privacidade desde a concepção significa que os dados pessoais só são processados quando é necessário fazê-lo e que as organizações monitorizam a razão pela qual estão a utilizar dados pessoais e como os dados que recolhem são utilizados.
A segurança desde o design é igualmente importante. Isto exige a implementação de higiene básica para proteger os dados: por exemplo, o software deve ser mantido atualizado; o acesso a dados confidenciais e a sistemas-chave precisa de ser gerido e protegido por uma autenticação forte; os dados devem ser copiados com segurança; e os fornecedores terceirizados precisam ser auditados para garantir que também estejam seguros.
Estes são os princípios básicos de qualquer sistema de privacidade e segurança de TI. Mas com a IA existem outros factores de risco que precisam de ser considerados. Por exemplo, os resultados do sistema podem ser de baixa qualidade – talvez conselhos ruins ao cliente vindos de um chatbot ou recomendações inseguras. Os dados podem ser transmitidos a terceiros sem controlos e transparência adequados, e a IA pode criar novos caminhos para a engenharia social.
As organizações devem pensar com cuidado e imaginação sobre os riscos potenciais do uso de IA e colocar barreiras de proteção para mitigar possíveis danos, contando com parceiros confiáveis com um histórico de segurança e proteção de privacidade.
BR: Existe muita confiança? Como você pode obter o nível certo de confiança?
PC: Você certamente pode ter muita confiança. Os consumidores precisam estar preparados para questionar os resultados da IA – e precisam ter um caminho para fazê-lo, como escalar um problema de um chatbot para um humano.
É igualmente importante que os agentes de atendimento ao cliente questionem os sistemas de IA. Eles ganharão a confiança de seus clientes ao mostrarem que não confiam cegamente nos resultados de um sistema automatizado, mas estão preparados para questioná-lo. Na verdade, a utilização da IA no atendimento ao cliente deverá permitir que isso aconteça: se os agentes ficarem livres de ter de lidar com muitas questões rotineiras, terão tempo para resolver questões complexas onde é necessária uma solução personalizada e mais criativa.
BR: Como os consumidores podem saber se um sistema de IA é confiável?
PK: Não acredito que os consumidores devam se preocupar se um sistema de IA é confiável ou não. A IA será apenas uma pequena parte do negócio com o qual o consumidor está interagindo. O foco da empresa deve ser construir confiança com a empresa, não apenas com o sistema de IA. Se os consumidores confiarem na empresa, então confiarão no sistema de IA como parte disso.
Para mais informações por favor visite www.zendesk.com.
Reescreva o texto para BR e mantenha a HTML tags