Prepare sua empresa para capturar as oportunidades de IA e reforçar suas políticas e princípios de segurança cibernética, dados e IA.
Prepare sua empresa para capturar as oportunidades de IA e reforçar suas políticas e princípios de segurança cibernética, dados e IA.
Independente se a ambição da sua organização é que a IA aumente os processos cotidianos ou crie algo revolucionário, ela precisa de um conjunto de recursos de base para ter sucesso.
Este manual pode ajudar os líderes de TI a preparar suas organizações para:
Definirem a “Ambição de IA” e identificarem as oportunidades de inteligência artificial;
Prepararem a segurança cibernética de IA;
Deixarem os dados prontos para a IA;
Adotarem princípios de IA.
Baixe sua cópia agora.
Mais de 60% dos diretores de tecnologia da informação afirmam que a IA faz parte de um plano de inovação, mas menos de metade sente que a organização consegue gerenciar os riscos. Reduza a lacuna definindo primeiro as ambições de IA.
A IA generativa permitiu que máquinas deixassem de ser ferramentas para se tornarem colegas de equipe. Essa é uma grande mudança acompanhada de um potencial lado obscuro. A diretoria espera que os diretores de tecnologia da informação liderem a estratégia de IA da organização para aproveitar os seus benefícios enquanto evita os riscos.
Os riscos são elevados devido à combinação de empolgação e desilusão com a IA que existe em todas as organizações. A desilusão ocorre pelo fato da maioria dos projetos de IA não serem implantados conforme o previsto.
Uma pesquisa da Gartner verificou que entre 17% e 25% das organizações disseram que planejavam implantar a IA nos próximos 12 meses, anualmente, de 2019 a 2024, porém o crescimento anual das implantações de produção foi de apenas 2% a 5%.
Para ajudar a aumentar a taxa de sucesso, os diretores de tecnologia da informação devem inicialmente definir a ambição de IA da organização, ou seja, devem decidir onde e como a IA será usada. Considerando que a IA atual pode fazer tudo, inclusive decidir, agir, descobrir e gerar, também é importante saber o que ela não fará.
Um plano de IA deve levar em consideração três elementos principais:
Isso reflete o tipo de ganhos comerciais esperados com a IA. A ambição de oportunidades identifica onde a IA será usada, por exemplo, para operações internas ou atividades voltadas para o cliente, e como, por exemplo, para otimizar as atividades cotidianas ou para criar oportunidades revolucionárias. Aproveite o Radar de oportunidades de IA da Gartner para mapear sua ambição de oportunidades.
Isso reflete as opções tecnológicas disponíveis para a implantação da IA, que podem permitir ou limitar as oportunidades que você espera aproveitar. As organizações podem implantar IA a partir de modelos públicos prontos para uso, e treinados com dados públicos; aproveitar um modelo público e dados adaptados a partir de dados próprios; ou desenvolver internamente como um algoritmo personalizado treinado com seus próprios dados.
Quanto maior for a personalização envolvida, maior será o custo de investimento e o tempo para a implantação. No entanto, uma maior personalização também permite oportunidades revolucionárias.
O risco da IA assume muitas formas, incluindo resultados não confiáveis ou obscuros, riscos de propriedade intelectual, preocupações com a privacidade de dados e ameaças cibernéticas. Há também os riscos regulatórios emergentes relacionados às regras e restrições que diferentes jurisdições podem impor à IA, inclusive as relacionadas a direitos autorais.
Sua organização precisará definir o apetite de risco no que diz respeito a níveis de automação e níveis de transparência.
A IA se enquadra em duas categorias de alto nível na organização:
Tanto a IA cotidiana quanto a IA revolucionária têm usos internos e externos. A definição da sua ambição de IA envolve a exploração das combinações de IA cotidiana e revolucionária e os casos de uso interno e externo pretendidos.
As expectativas de investimento influenciarão essas decisões dado que a IA revolucionária não é barata. Embora 73% dos diretores de tecnologia da informação digam que planejam investir mais em IA em 2024 do que fizeram em 2023, os diretores financeiros são céticos quanto aos resultados: 67% dos responsáveis financeiros dizem que os investimentos digitais têm apresentado um desempenho abaixo das expectativas.
Para definir ambições realistas de IA, leve em consideração três cenários de investimento de IA com a diretoria:
Defenda sua posição investindo em ganhos rápidos que melhoram tarefas específicas. As ferramentas de IA cotidiana têm uma barreira de baixo custo para adoção, mas não oferecem à sua organização uma vantagem competitiva sustentável. O investimento nesse caso permite acompanhar o status quo;
Amplie sua posição investindo em aplicativos adaptados e personalizados que proporcionam uma vantagem competitiva. Esses investimentos em IA são mais caros e levam mais tempo para causarem um impacto, mas também são mais valiosos;
Mude sua posição ao criar novos produtos e modelos de negócios com IA. Esses investimentos são muito caros, arriscados e demorados, mas têm um grande potencial recompensador e podem influenciar a sua indústria.
Por fim, como os diretores de tecnologia da informação envolvem os executivos na ambição de oportunidades de IA, garanta que eles tenham um entendimento preciso sobre a viabilidade. Por exemplo, não é possível capturar oportunidade sem a tecnologia necessária. Também não é possível usar a IA quando aqueles que vão utilizá-la, internamente ou externamente, não estão prontos para isso.
O Radar de oportunidades de IA da Gartner (preencha o formulário acima para obter mais informações) mapeia a ambição de IA em termos de oportunidade e viabilidade.
Lembre-se que as maiores oportunidades são provavelmente inovações disruptivas que poderiam mudar uma indústria e proporcionar grandes retornos econômicos, mas são pouco viáveis porque envolvem uma tecnologia não comprovada e/ou partes interessadas relutantes.
Nos últimos seis meses, verificamos uma grande movimentação de lançamentos de modelos de IA e ferramentas no mercado. Além disso, muitos grandes fornecedores de software independentes (ISVs) estão incorporando a IA em seus aplicativos existentes. Esses encontros competitivos são característicos da maioria dos mercados de alto risco em estágio inicial e contribuem para um gama confusa de opções.
Usando a IA generativa como exemplo, a Gartner verifica cinco abordagens emergentes para a implantação da IA:
Consumo de IA generativa incorporada em aplicativos, como o uso de um aplicativo de software de design, que passou a incluir recursos de geração de imagem, como, por exemplo, o Adobe Firefly;
Incorporação de APIs de IA generativa em uma estrutura de aplicativo personalizada para que as empresas possam criar seus próprios aplicativos e integrar a IA generativa por meio de APIs de modelo de base;
Ampliação dos modelos de IA generativa por meio de recuperação de dados como, por exemplo, usando geração aumentada de recuperação (RAG), permitindo às empresas recuperar dados de fora de um modelo de base (frequentemente de dados internos) e aumentar os prompts com isso para melhorar a precisão e a qualidade de resposta dos modelos para tarefas específicas;
Ampliação dos modelos de IA generativa por meio de ajustes finos de um grande modelo de base pré-treinado com um novo conjunto de dados para incorporar um know-how adicional ou para melhorar o desempenho de tarefas específicas. Isso geralmente resulta em modelos personalizados dedicados à organização.
Criação de modelos de base personalizados do zero, personalizando-os totalmente de acordo com seus dados e negócio.
Cada abordagem de implantação acompanha compensações entre benefícios e riscos. Esses fatores-chave que influenciam essas compensações são:
Custos – aplicativos incorporados e APIs de modelos incorporados são as opções mais econômicas de implantação de IA. A criação de um modelo do zero seria a mais cara. Entretanto, os custos variam muito, especialmente com o ajuste fino, para o qual os custos são elevados com a atualização de milhares de milhões de parâmetros;
Conhecimento organizacional e know-how – a maioria dos modelos de base de IA são modelos de conhecimento geral. Para a melhoria da precisão, as organizações precisam trazer know-how e especificidade de caso de uso por meio de recuperação de dados, ajustes finos ou a criação de seu próprio modelo;
Capacidade de controle da segurança e privacidade – as considerações de segurança e privacidade são atualmente muito amplas com a IA generativa. A criação dos próprios modelos ou de modelos personalizados por meio de ajustes finos proporciona uma maior propriedade dos ativos principais e uma maior flexibilidade em termos dos controles que podem ser implantados;
Controle do resultado do modelo – um modelo de base de IA é propenso a riscos de alucinação, além da propagação de um comportamento tendencioso ou prejudicial. A recuperação de dados, o ajuste fino de modelos e a criação dos próprios modelos podem ser preferidos em ambientes com um alto controle. Aplicativos críticos para os negócios exigirão um humano no processo;
Simplicidade de implementação – o consumo de aplicativos incorporados e APIs de modelos incorporados têm vantagens devido à sua simplicidade inerente e ao tempo de lançamento no mercado. Eles não têm um impacto negativo significativo em termos de fluxos de trabalho atuais.
A finalização das oportunidades de IA esperadas pela organização requer que os líderes de negócios articulem o nível do risco que eles estão dispostos a aceitar relacionados a questões como confiabilidade, privacidade, explicabilidade e segurança da IA:
Dependendo do treinamento, toda IA pode ser até certo ponto vulnerável com relação a:
Imprecisões fatuais, ou resultados parcialmente verdadeiros, com informações importantes incorretas;
Alucinações ou resultados fabricados;
Informações desatualizadas devido a cortes de conhecimento nos dados de treinamento;
Informações tendenciosas nos dados de treinamento, gerando resultados tendenciosos.
Questões de privacidade variam de preocupações com informações identificáveis nos dados de treinamento ao compartilhamento de dados ou resultados, incluindo:
Compartilhamento de informações de usuários com terceiros sem aviso prévio, incluindo fornecedores ou provedores de serviços, afiliados e outros usuários;
Processamento de dados (re)identificáveis;
Treinamento com dados (re)identificáveis que podem ter um impacto na vida real uma vez em produção;
Vazamento não intencional de dados confidenciais ou pessoais;
Informações internas, sigilosas ou confidenciais inseridas como prompts ou para recuperação de dados poderiam se tornar parte da base de conhecimento usada nos resultados para outros usuários.
Modelos de aprendizado de máquina (ML) são obscuros para os usuários e algumas vezes inclusive para especialistas qualificados. Embora cientistas de dados e desenvolvedores de modelos entendam o que os modelos de ML estão tentando fazer, eles não conseguem decifrar a estrutura interna ou os meios algorítmicos pelos quais os modelos processam os dados.
A falta de entendimento sobre os modelos e, portanto, a explicabilidade – que a Gartner define como as capacidades de esclarecer o funcionamento de um modelo – limita a capacidade de uma organização de gerenciar o risco da IA. A falta de explicabilidade faz com que os resultados de um modelo sejam:
Imprevisíveis
Inverificáveis
Inexplicáveis
A IA pode se tornar um novo alvo para agentes mal-intencionados acessarem dados privados ou inserirem códigos ou parâmetros de treinamento para fazer com que a IA atue de maneiras que atendam aos interesses do adversário. Por exemplo:
Informações pessoais e confidenciais armazenadas por um modelo de IA sendo acessado por hackers;
Hackers usando prompts para manipular um grande modelo de linguagem (LLM) para fornecer informações que não deveriam ser fornecidas;
LLMs sendo induzidos a escreverem códigos de malware ou ransomware.
O equilíbrio dos riscos atribuídos pela IA com as oportunidades pretendidas pela organização requer que os diretores de tecnologia da informação ajudem a definir as funções relativas dos humanos e da IA. A meta é encontrar um equilíbrio entre o nível de automação (da total automatização ao “humano no processo”) e o nível de explicabilidade (da IA com “caixa preta” totalmente obscura à totalmente explicável).
Cada diretor de experiência (CxO) precisa declarar seus níveis aceitáveis de risco de IA para os principais processos de seus departamentos e garantir o alinhamento com as oportunidades pretendidas da IA. Por exemplo, o responsável pelo RH pode ter um nível de tolerância ao risco centrado na “aposta mais segura” devido à natureza confidencial de seu trabalho, enquanto o responsável pelo atendimento ao cliente pode visar uma “automação responsável” para permitir uma automação que possa ser explicada para os clientes, se necessário.
Junte-se aos seus colegas para conhecer os insights mais recentes nas conferências da Gartner