BLOG TD SYNNEX
O blog dos negócios de TI.

Inteligência Artificial – A origem

Se você se considera especialista em Inteligência Artificial, então o que vem a seguir vai acrescentar pouco ou nada a seu conhecimento.

Mas, se você conhece pouco ou mesmo nada sobre este tema e quer saber como tudo isso começou e por que tem chamado a atenção de tantas pessoas, o que vem a seguir pode ajudar você a entender melhor tudo isto. 

Primeiro temos que começar com algumas definições. Segundo o dicionário Aurélio: 

Inteligência: (Substantivo feminino) Função psíquica que contribui para que uma pessoa consiga entender o mundo, as coisas e situações, a essência dos fatos. 

Artificial: (Adjetivo) Que é produzido não pela natureza, mas por uma técnica. 

Vamos fazer uma pequena viagem no tempo para trazer os fundamentos da IA. 

Em 1943, o neurofisiologista e cibernético americano da Universidade de Illinois em Chicago Warren McCulloch e o lógico autodidata e psicólogo cognitivo Walter Pitts publicaram o artigo “A Logical Calculus of the ideas Imminent in Nervous Activity”, descrevendo o “neurônio McCulloch-Pitts”, o primeiro modelo matemático de uma rede neural. 

Esta descoberta foi muito importante, pois mostrava que o neurônio tinha basicamente dois estados e passível de ser representado por uma equação matemática. Bom, em sendo possível ser representado por uma equação matemática, esta equação matemática também era passível de ser representada em forma de um programa de computador. 

A modelagem matemática tem como função básica tentar reproduzir os cenários do mundo real. Ela estuda a simulação de sistemas reais a fim de prever o comportamento destes, sendo empregada em diversos campos de estudo, tais como física, química, biologia, economia e engenharias. É uma tentativa de descrever matematicamente um fenômeno. 

O termo “Inteligência Artificial” como conhecemos hoje só surgiu em 1956 e foi cunhado por John McCarthy (MIT – Massachusetts Institute of Technology). 

Um outro ponto que se deve ressaltar é que, nas últimas décadas, o volume de dados produzidos é imensamente maior do que de anos anteriores, dificultando a análise. 

O avanço do poder de processamento dos computadores também contribuiu muito para o desenvolvimento dos algoritmos que servem de base para os projetos de IA, os chamados modelos matemáticos. 

Até bem pouco tempo, utilizava-se somente as CPUs (Computer Processor Unit), que são os locais em que as instruções de um programa são processadas em um computador para poder executar as tarefas ditadas pelas linguagens de programação. Em geral, as CPUs têm capacidade para processar instruções complexas. Com o tempo, as unidades de processamento que eram utilizadas inicialmente para processar dados ligados a gráficos, as chamadas GPUs (Graphical Processor Unit), passaram ser mais utilizadas para processar algoritmos relacionados a modelos matemáticos, pois se mostraram mais eficientes que as CPUs. A razão é que, assim como os neurônios, as GPUs processam poucas informações de cada vez, mas são muito mais rápidas e conseguem processar mais dados que as CPUs em um mesmo intervalo de tempo. 

A combinação de mais poder de processamento, alto volume de dados e modelos matemáticos auxiliando a simular casos cada vez mais complexos é que gerou o movimento que estamos vendo hoje. 

Mais ainda: os algoritmos de Inteligência Artificial ganharam força, pois passaram a “aprender” durante o processo de “treinamento” do modelo, que consiste em uma base de dados que serve como referência. Quando estamos em busca de um modelo que nos ajude a fazer previsões, podemos lançar mão de ferramentas conhecidas como Machine Learning. Esta técnica permite que, a partir de um determinado volume de dados já seja possível estimar alguns comportamentos. Isto pode ser muito útil em diversos segmentos em que a busca pela informação não exija um grande grau de precisão. 

Todavia, quando se necessita de uma visão mais detalhada, uma análise de imagens, por exemplo, pode-se utilizar uma técnica derivada do Machine Learning, chamada Deep Learning (DL). Comparado com o ML, o DL exige bases de dados maiores para treinar os modelos e um poder de processamento muito superior ao visto em modelos ML, todavia com resultados bem mais apurados. 

Existe ainda a possibilidade de criar informações, textos e imagens a partir de algoritmos de IA, também conhecidos como “Generative AI” e para os quais existem modelos específicos chamados Large Language Models (LLM). 

Mas algumas pessoas podem estar se perguntando o que tudo isso significa em termos práticos para o mercado de Tecnologia da Informação (TI). A consultoria Markets and Markets* estima que somente o mercado de Inteligência Artificial deva movimentar US$ 150 bilhões em 2023, mas deve chegar a US$ 1,3 trilhão em 2030. Essas estimativas estão ligadas a quanto os clientes finais estão e/ou estarão dispostos a gastar com esta tecnologia. Isto significa uma taxa de crescimento de 36,8% (CAGR) ao ano. Marcas importantes do mercado de TI como Microsoft, Google, IBM, Nvidia entre outras estão atentas a este crescimento. 

Poucas são as tecnologias dentro da área de TI que estão com uma previsão de crescimento tão vertiginosa. E a razão é simples: IA está afetando todos os segmentos de negócio e terá um grande impacto na empregabilidade das pessoas que fazem tarefas burocráticas e repetitivas. As áreas de Recursos Humanos têm um grande desafio pela frente, pois as áreas de negócio e operações já começaram a experimentar grandes avanços com a utilização de IA em suas atividades. 

Os parceiros de negócio devem estar atentos a este movimento para poder apoiar seus clientes nesta nova jornada rumo ao futuro. Novamente os distribuidores têm papel-chave no apoio aos seus parceiros visando dar conhecimento a eles frente a esta nova realidade e, também, apoiá-los com treinamentos, capacitação e um portfólio que lhes permitam atender as demandas de seus clientes finais. 

A adoção de ferramentas e produtos baseados em IA pelos clientes finais não é mais uma questão de entendimento da tecnologia, é somente uma questão de tempo! 

Por Waldir Saboia, diretor de Data, AI e IoT na TD SYNNEX América Latina. 

*Artigo publicado na InforChannel em 2 de setembro de 2023.

80f01a82-lp-digital-02_10000000lr0gn000000028
ESPAÇOS DE TRABALHO DIGITAIS. CONHEÇA TUDO SOBRE ESTA NOVA ESTRATÉGIA COLABORATIVA.

Escreva seu comentário

Posts relacionados

TD SYNNEX reconhecida pela NVIDIA como Parceiro de Distribuição do Ano nas Américas

 

FREMONT, Calif. & CLEARWATER, Fla. XXX -- A TD SYNNEX (NYSE: SNX) anuncia que foi escolhida pela NVIDIA Partner Network(NPN) como Parceiro de Distribuição do Ano nas Américas. 

TD SYNNEX Cloud Labs acelera comercialização de produtos para nuvem

Ambientes virtualizados oferecem flexibilidade, escalabilidade e economiapara demonstrações PoC baseadas em nuvem.

4 pilares necessários para um eficiente refinamento de dados

Muito se tem falado sobre a importância de transformar dados em informações a serem utilizadas pelos executivos das empresas em seus processos de tomada de decisão.