Na maioria das organizações, a produtividade é encorajada, recompensada e frequentemente celebrada como um sinal de progresso. Espera-se que as equipas se movam rapidamente, comuniquem claramente e tomem melhores decisões com menos fricção. A chegada da IA generativa acelerou esta expetativa, dando aos empregados ferramentas poderosas que prometem poupar tempo e melhorar a produção em quase todas as funções.

Mas por detrás deste aumento de eficiência, existe um risco crescente e muitas vezes ignorado.

Os funcionários não estão a tentar contornar os controlos ou expor informações sensíveis. Estão simplesmente a tentar fazer o seu trabalho de forma mais eficaz. Nesse sentido, muitos estão a recorrer a ferramentas de IA para resumir documentos, redigir comunicações, analisar dados e gerar conhecimentos com rapidez. O que parece ser uma evolução natural na forma como o trabalho é feito, está silenciosamente a remodelar a forma como a informação flui através de uma organização e, em muitos casos, a criar uma exposição difícil de detetar.

Quando a produtividade ultrapassa a consciencialização

O local de trabalho moderno é construído com base na conveniência. Quando uma ferramenta ajuda alguém a realizar uma tarefa em metade do tempo, rapidamente se integra nas rotinas diárias. As plataformas de IA são particularmente eficazes neste aspeto, oferecendo valor imediato com muito pouca fricção ou formação necessária.

Um funcionário a trabalhar para cumprir um prazo pode carregar um relatório numa ferramenta de IA para produzir um resumo conciso para a liderança. Outra pessoa pode colar dados de clientes num chatbot para ajudar a elaborar uma resposta personalizada. Um gestor pode confiar em informações geradas por IA para informar uma decisão sem compreender totalmente como essas informações foram produzidas.

Em todos os casos, a intenção é trabalhar de forma mais inteligente. No entanto, o resultado pode implicar a partilha externa de informações sensíveis, o processamento de dados de formas que escapam aos controlos organizacionais ou a influência de decisões com base em resultados que não foram validados.

Estes comportamentos raramente parecem arriscados no momento. Sente-se eficiente, útil e totalmente e totalmente alinhados com as pressões que os funcionários enfrentam todos os dias.

A ilusão de ferramentas seguras e “internas

Um dos pressupostos mais comuns que moldam a utilização da IA é a crença de que certas ferramentas são inerentemente seguras. Se uma plataforma é amplamente utilizada, recomendada por colegas ou parece funcionar num ambiente controlado, é frequentemente considerada de baixo risco.

Isto cria uma falsa sensação de segurança.

Os funcionários podem não ter em conta onde são armazenados os dados que introduzem, como são processados ou se são utilizados para treinar modelos futuros. Podem assumir que a utilização da IA num contexto de trabalho a torna automaticamente compatível com as políticas organizacionais. Na realidade, as fronteiras entre as ferramentas de IA pessoais, públicas e empresariais nem sempre são claras e os riscos associados a cada uma podem variar significativamente.

Há também um pressuposto crescente de que todas as ferramentas de IA funcionam da mesma forma. Os funcionários podem acreditar que a utilização de uma versão gratuita ou pública de uma ferramenta oferece as mesmas protecções que uma subscrição empresarial ou paga. Em muitos casos, isso não é verdade. As ferramentas de nível empresarial são frequentemente configuradas com controlos mais rigorosos em relação ao tratamento, privacidade e retenção de dados, enquanto as versões públicas podem processar e armazenar dados de formas menos visíveis e menos controladas.

Sem essa compreensão, as informações sensíveis podem ser partilhadas com o pressuposto de que permanecem privadas, quando na realidade podem ser expostas muito para além do controlo da organização.

Sem uma orientação clara, os empregados são deixados a fazer os seus próprios juízos de valor. Essas decisões são normalmente tomadas em função da conveniência e não da segurança.

Decisões baseadas em resultados não verificados

Para além da exposição de dados, há uma segunda camada de risco que se está a tornar cada vez mais significativa. À medida que as ferramentas de IA são utilizadas com mais frequência para gerar informações, resumos e recomendações, começam também a influenciar os processos de tomada de decisões.

Embora estas ferramentas possam ser altamente eficazes, não são infalíveis. Os resultados podem ser incompletos, tendenciosos ou totalmente incorrectos, especialmente quando se baseiam em dados limitados ou mal compreendidos. Quando os empregados aceitam estes resultados pelo seu valor nominal, sem verificação ou avaliação crítica, o potencial de erro aumenta.

Em ambientes de alta pressão, onde se dá prioridade à velocidade e os recursos são limitados, a tentação de confiar em conteúdos gerados por IA pode ser forte. Com o tempo, isto pode levar a uma erosão gradual da supervisão, em que as decisões são tomadas com uma confiança crescente mas com uma certeza decrescente.

Porque é que a sensibilização tradicional é insuficiente

Muitas organizações já introduziram políticas ou orientações sobre a utilização da IA. No entanto, as políticas, por si só, não são suficientes para influenciar o comportamento de uma forma significativa.

O problema não é a falta de informação, mas o fosso entre a compreensão e a ação.

Se for dito aos funcionários para não partilharem dados sensíveis sem lhes ser mostrado como e quando esse risco pode ocorrer, a orientação permanece abstrata. Se forem avisados sobre as imprecisões da IA sem verem exemplos reais de como essas imprecisões se manifestam, a mensagem é fácil de ignorar.

Uma sensibilização eficaz requer contexto. Tem de refletir as decisões que os empregados estão a tomar em tempo real, sob pressões reais e nos ambientes específicos em que operam.

Sem isso, mesmo os indivíduos bem-intencionados adoptarão os comportamentos que os ajudam a trabalhar mais depressa e de forma mais eficiente.

Criar uma consciência que reflicta a realidade

Para enfrentar os riscos associados à utilização da IA, as organizações têm de ir além da educação genérica e concentrar-se na aprendizagem prática e baseada em cenários que espelham o comportamento no mundo real.

Começa por ajudar os empregados a reconhecerem onde é provável que ocorram riscos. Em vez de apresentar a IA como uma ameaça ampla ou abstrata, a formação deve centrar-se em situações quotidianas, como a elaboração de e-mails, a análise de folhas de cálculo ou o resumo de relatórios. Ao basear a sensibilização em tarefas familiares, as organizações podem tornar os riscos mais tangíveis e mais fáceis de compreender.

É igualmente importante fornecer ferramentas aprovadas e alternativas claras. Se se espera que os empregados evitem certas plataformas, precisam de ter acesso a opções seguras que lhes permitam alcançar os mesmos resultados sem introduzir fricções desnecessárias. Sem alternativas viáveis, é provável que os comportamentos de risco persistam.

A comunicação também desempenha um papel fundamental. As mensagens devem ser simples, relevantes e alinhadas com os objectivos da empresa. Quando os colaboradores compreendem não só o que devem fazer, mas porque é que isso é importante no contexto da sua função, é mais provável que se empenhem nas orientações fornecidas.

Por último, a sensibilização não deve ser tratada como uma iniciativa isolada. À medida que as ferramentas de IA continuam a evoluir, o mesmo acontece com a forma como são utilizadas. O reforço contínuo, apoiado por exemplos do mundo real e cenários em evolução, é essencial para garantir que os comportamentos se adaptam à tecnologia.

Trabalha com o MetaCompliance

Na MetaCompliance, reconhecemos que o risco da IA não é criado apenas pela tecnologia, mas pela forma como as pessoas interagem com ela. A nossa abordagem centra-se em ajudar as organizações a compreender e a influenciar estes comportamentos, criando programas de sensibilização que reflectem as realidades do trabalho moderno.

A nossa formação em IA foi concebida para ir além da política e da teoria, utilizando uma aprendizagem prática e baseada em cenários para mostrar aos funcionários como o risco se desenvolve nas tarefas diárias. Ao combinar a perceção comportamental com resultados mensuráveis, permitimos que as organizações identifiquem onde é mais provável que a exposição ocorra e tomem medidas específicas para a reduzir.

Também apoiamos as organizações na integração de práticas seguras de IA na sua cultura de segurança mais alargada, assegurando que os funcionários têm os conhecimentos, as ferramentas e a confiança para utilizar a IA de forma responsável, sem abrandar a produtividade.

À medida que a IA continua a moldar a forma como o trabalho é feito, as organizações bem-sucedidas serão aquelas que conseguirem equilibrar a inovação com o controlo, permitindo que os seus colaboradores avancem rapidamente, mantendo-se seguros.

Se pretendes criar uma abordagem mais eficaz e centrada no ser humano ao risco da IA, entra em contacto com a nossa equipa para saberes como podemos ajudar.

FAQs sobre IA:

Quais são os principais riscos de os trabalhadores utilizarem ferramentas de IA no trabalho?

Os principais riscos incluem a partilha não intencional de dados sensíveis ou confidenciais, a confiança em resultados imprecisos ou tendenciosos gerados pela IA e a utilização de ferramentas não aprovadas que não se enquadram nos controlos de segurança organizacionais. Estes riscos resultam muitas vezes de tarefas quotidianas e não de uma utilização indevida deliberada.