Machine Learning não é mágica, embora pareça: Usadas por varejistas para recomendar produtos, provedores de e-mail para filtrar spam e redes sociais para reconhecimento facial e análise de sentimentos, as técnicas de Machine Learning nunca foram tão acessíveis e utilizadas como hoje. A Google, por exemplo, está comprometida de democratizar o uso de Machine Learning. Através da Gooogle Cloud, oferece uma ampla lista de produtos e programas de educação e pesquisa, acessíveis a todos os negócios, cientistas de dados e desenvolvedores.
Um subconjunto do Machine Learning, o Deep Learning, é hoje o tema do momento dentre as empresas do Vale do Silício: o reconhecimento facial do Facebook, a assistente virtual Siri, o carro autônomo do Google e o diagnóstico de um tipo raro de câncer pelo IBM Watson são apenas algumas possíveis aplicações. Por meio desta tecnologia, sistemas cada vez mais inteligentes estão sendo desenvolvidos e resolvendo problemas de altíssima complexidade.
“O conceito principal do Deep Learning é a máquina sendo capaz de recriar o processo de funcionamento do cérebro humano. É uma rede neural computacional organizada em camadas”, define Carlos Souza, diretor-geral da Udacity para América Latina, que acaba de coloicar ao alcance dos brasileiros o programa Nanodegree Fundamentos de Deep Learning, em português. Tipos e arquiteturas de redes neurais, reconhecimento de objetos, bots inteligentes, drone image tracking, previsão do mercado de ações e visualização de dados são alguns dos conceitos e aplicações abordados no curso.
Segundo o Google, no Machine Learning o software que aprende é chamado de rede neural. Em termos genéricos, um sistema de Machine Leraning imita um cérebro real. É composto por milhões ou bilhões de “neurônios”, que são, realmente, pequenas unidades computacionais que fazem uma computação simples, cada, e, sem seguida, passam a informação para os neurônios conectados. Quando todos esses neurônios estão conectados como uma grande rede, ele pode aprender a reconhecer padrões bastante complexos. No Deep Learning os neurônios são dispostos em camadas, onde cada camada aprende os padrões da camada abaixo dela. Deste modo, o sistema aprende os padrões dos padrões dos padrões. Isso significa que nas camadas mais altas, a rede neural pode aprender padrões muito abstratos, como o que são “abraços” ou como uma “festa” se parece. É por isso que o Deep Learning se tornou tão popular.
Mas é preciso pontuar que Machine Learning não é uma solução mágica. Exige algum esforço e muito conhecimento no uso de dados.
“Toda essa propaganda tem gerado grandes expectativas sobre a performance dessas ferramentas, geralmente seguidas de enormes decepções entre os consumidores que se sentem enganados”, aponta o gerente de pesquisas na Easy Solutions, Javier Vargas.
Vargas cita cinco equívocos mais comuns que devem ser esclarecidos antes da adoção de Machine Learning como instrumento de segurança cibernética, por exemplo.
1 – Machine Learning não é capaz de criar conhecimento, apenas de extrair conhecimento: Ferramentas de Machine Learning somente podem alcançar seu verdadeiro potencial – e superar as abordagens tradicionais – se forem alimentadas com um volume suficiente de dados de qualidade.
2 – Trata-se de uma tecnologia adicional: Enquanto os marqueteiros acreditam que Machine Learning supera a performance de todos os sistemas existentes, é importante ter cautela para gerar expectativas realistas.
3 – Análises de desempenho produzidas por cientistas de dados tendem a ser complexas, e é importante entendê-las.
4 – Bons modelos de Machine Learning são avaliados pelo seu desempenho: Isso significa que a performance é avaliada executando o algoritmo várias vezes com um conjunto de Big Data que seja uma boa representação do problema real. As organizações devem ser coerentes com as suas necessidades operacionais.
5 – Os resultados de Machine Learning nem sempre são fáceis de explicar: Modelos de Machine Learning identificam padrões em grandes conjuntos de dados, extrapolam respostas e fazem previsões com base em composições não triviais. Tudo isso torna muito difícil entender seu funcionamento interno.
Dados, treinamento, processamento, análise
Talvez você tenha notado, no outono de 2016, que o Google Tradutor de repente passou de acertar mais. Mágica? Não. A melhora significativa na tradução para diversos idiomas, a partir do inglês, foi resultado de um esforço concertado de nove meses por parte das esquipes do Google Brain e do Google Translate para renovar o antigo método aseado em algoritmos estatísticos de tradução automática. O tradutor passou a trabalhar com uma rede neural treinada, empregando Google TensorFlow, sistema de IA do Google.
Os pesquisadores que trabalharam na conversão tiveram acesso a um enorme acervo de traduções para treinar suas redes, mas logo descobriram que precisavam de milhares de GPUs para treinamento e teriam de criar um novo tipo de chip (o TPU – Tensor Processing Unit), Para executar as redes neurais treinadas em escala. Não por acaso, grandes movimentos na Machine Learning em 2016 envolveram GPUs.
Um dos fatos mais marcante de 2016 foi em março, quando o AlphaGo, desenvolvido pela DeepMind, subsidiária de IA do Google, superou Lee Sedol, o então melhor jogador de Go do mundo, com um placar de 4 a 1 em um torneio de cinco jogos. O Google também vem desenvolvendo chips especiais para “deep learning”, como o ASIC. Aliás, em uma brilhante jogada estratégica, colocou em open source o TensorFlow, seu engine de IA. E, falando em hardware, foi significativo a NVIDIA ter desenvolvido um chip de 15 bilhões de transistores desenhado especificamente para “deep learning”.
Uma tendência que vem sendo adotada é a utilização de técnicas de aprendizado de máquina –machine learning– para reconhecimento de padrões. Em geral, estas técnicas são aplicadas de maneira pontual nos próprios sistemas transacionais. Isso potencializa a obtenção de resultados e agiliza a tomada de decisões sobre o problema. Para isso, os mecanismos de reconhecimento de padrões precisam ser incorporados aos sistemas transacionais de modo que possam identificar padrões de forma preditiva. Por exemplo: indícios de fraude em um sistema de operações, identificação do perfil dos usuários de um portal de compras ou notícias, etc.
Para popularizar o uso de Machine Learning, surgiu outra tendência que deve se consolidar em 2017: a da “Inteligência Artificial como um serviço”. Em vários casos, os usuários podem abandonar o trabalho pesado de treinamento e partir direto para o uso de API disponíveis para a realização das tarefas que precisam.
Além do próprio Google, Amazon (AWS), Microsoft (Azure) e IBM, com seu Watson, estão disponibilizando APIs para criar um ecossistema de aplicações em torno de seus produtos de IA. O modelo colaborativo está sendo amplamente adotado para impulsionar a evolução exponencial da IA. Um exemplo foi a Microsoft ter lançado um conjunto de 100 mil perguntas e respostas que podem ser usadas para facilitar o desenvolvimento de sistemas de IA que interajam com humanos, como chatbots.
O lado positivo da tendência IA as a service para o usuário final? Ele passa a escolher a rota que melhor se adapta às suas necessidades. A rota da API da caixa-preta deve fornecer resultados úteis suficientes para aqueles que não exigem mais do que a versão mercantilizada da Machine Learning. já os interessados em lançar suas próprias soluções de Machine Learning também podem encontrar recursos valiosos ao seu dispor. O aumento da popularidade vem a reboque não só do barateamento de hardware, mas da proliferação de software livre que exploram recursos direcionados ao Machine Learning.
Soluções baseadas em assistentes ativados por voz e chatbots floresceram em 2016, para os mais variados fins. Em 2017, algumas dessas ferramentas irão proliferar também no mundo corporativo, criando novos fluxos de trabalho, eficiência operacional e oportunidades para melhorar o atendimento ao cliente.
A FedEx está usando as APIs da Amazon.com para criar um aplicativo que permite enviar pacotes dizendo: “Alexa, eu quero enviar um pacote”, de acordo com o diretor de TI da FedEx, Rob Carter. “Nossa crença é a de que podemos criar capacidades de Machine Learning e Inteligência Artificial para auxiliar o envio de encomendas complexas ao redor do mundo e obter a documentação apenas por meio de uma abordagem conversacional”.
Startups como a Conversica e a Dynamic Yield levantaram milhões de dólares em financiamento com a promessa de ferramentas de Inteligência Artificial que melhorem a relevância dos leads e personalizem ofertas para os clientes.
Empresas como a Humana e a Aetna estão usando IA para enfrentar o velho desafio de treinar milhares de trabalhadores de atendimento ao cliente para serem profissionais e empáticos diante dos consumidores irritados e emocionais.
Everton Gago e Danilo Pinheiro, desenvolvedores de software na Dextra, ressaltam em um artigo, publicado pela CIO, que o maior receio de incorporar rotinas de reconhecimento de padrões em um sistema transacional é a sua manutenção. Ao contrário do que parece, não é necessário modificar os algoritmos de aprendizado de máquina, eles são sólidos e muito estáveis. Basta utilizar uma boa API, com suporte de uma comunidade confiável e assídua. Para responder a novas perguntas de negócios, podemos pensar em novos relatórios e dashboards. O reconhecedor de padrões também podem evoluir através de integrações com outros sistemas, ou até mesmo com ambientes de suporte à decisão, se a sua empresa já possuir um.
Fonte: CIO
Conteúdos que você pode gostar também:
Novidades da Google IO para Inteligência Artificial incluem a Cloud TPU
Novidades da Google IO para Inteligência Artificial incluem a Cloud TPU: Como esperado, a Google I/O começa trazendo…
Google oferece treinamento gratuito para profissionais de tecnologia no Brasil
Treinamento gratuito Google para profissionais de tecnologia: Estão abertas as inscrições para o Google Cloud OnBoard,…
Com APIs e poder computacional, Google Cloud Platform democratiza acesso a machine learning e I.A
Com APIs e poder computacional, Google Cloud Platform democratiza acesso a machine learning e I.A: Durante o Google…