No dia 14 de setembro, nós transmitimos uma live com o tema “Porque iniciativas de Machine Learning falham”, onde nosso Co-Founder Guilherme e nosso Head de Desenvolvimento, Daniel conversaram um pouco sobre essa tecnologia. Você pode assistir a transmissão ou ler a conversa na íntegra neste blogpost. Boa leitura!

Introdução: Definindo Inteligência Artificial (IA).

Guilherme: Aqui na ST-One, nós temos a oportunidade de interagir com vários tipos de indústrias: fora a automobilística, a indústria de alimentos e a indústria farmacêutica. E nessa jornada de alguns anos de experiência, pude aprender um pouquinho sobre dados, sobre digitalização, conectividade. E acho que é um pouquinho do que a gente quer trazer hoje aqui. Bem conectado com o tema de “Por que as iniciativas de Machine Learning falham”. Para a gente dar andamento no nosso tema, acho que faz sentido começar falando da definição. O que é Machine Learning? Como diferenciar com outros temas? Como a gente consegue introduzir quem tá assistindo a gente ao tema de Machine Learning?

Daniel: Eu acho que é legal a gente começar desmistificando um pouquinho algumas coisas, e eu acho que para falar do que é Machine Learning, eu primeiro vou começar a introduzindo o que que é inteligência artificial. Eu acho que o pessoal, no geral, já conhece um pouquinho de inteligência artificial com o que você lida no dia a dia. Então, você geralmente assiste filmes e você vê um robô, e você imagina que isso, obviamente, tem uma inteligência artificial por trás daquilo. Mas o conceito vai um pouco além dessa ideia. Então, quando a gente fala de IA, a gente se refere à capacidade das máquinas de raciocinar e realizar tarefas humanas. Muitas vezes, se essas tarefas forem bem definidas, elas são executadas até mesmo melhor do que nós mesmos. E beleza, tendo definido o que é IA, a gente consegue dizer o que é Machine Learning: ela é uma ramificação do que vem a ser uma inteligência artificial.

Guilherme: E IA é um termo bem genérico, bem abrangente. A gente não precisa falar necessariamente de máquinas. Quando a gente fala de IA, existem até outras coisas, fora de máquinas, que poderiam ser aplicadas ao termo de IA.

Daniel: Correto. E quando a gente entra na ramificação de Machine Learning, basicamente, é a gente fazer com que a máquina aprenda – com grande quantidade de dados – a realizar tarefas específicas. Então, através de um algoritmo, você consegue ter… – obviamente, [com] o algoritmo, você tem uma interferência humana – você projeta esse algoritmo com uma grande quantidade de dados, e a partir disso, você tem uma máquina que consegue gerar valores de predição e obviamente, poder tirar insights base nisso.

Guilherme: Tem uma forma que eu gosto de definir, de enxergar Machine Learning, que é com base na tomada de decisão. Apesar de Machine Learning ser tratado como uma ferramenta, as técnicas usadas por trás para utilizar, para se definir Machine Learning, podem se sobrepor a outras frentes. Então, eu tenho uma ferramenta matemática aqui, que eu uso para fazer o computador aprender. No final das contas, a gente tem uma máquina fazendo contas por trás dos panos. Aliás, eu posso usar essa mesma ferramenta matemática para simplesmente olhar para os dados que eu tenho, e ter um insight sobre ele. Tentar entender o que tá se passando por trás. E nesse conceito inclusive, a primeira vez que eu ouvi isso foi no talk do Google, que “pode-se definir o que é uma aplicação de Machine Learning com base na quantidade de decisões que você toma”.

Então, a aplicação de Machine Learning se encaixa muito bem quando eu tenho uma grande quantidade de dados e uma necessidade de tomada de decisão com frequência. Ou seja: preciso tomar muitas decisões iguais. Então, no famoso “eu tenho muitas fotos de gatos e de cachorros, e eu preciso classificar o que é gato ou é cachorro.” É uma decisão muito parecida. Eu tenho uma grande quantidade de dados e eu treino um algoritmo – e aí, existe uma gama enorme de ferramentas para a gente poder chegar nesse objetivo de tomar decisão dependendo da ferramenta que eu uso – se eu conseguir chegar nesse objetivo de tomar muitas decisões usando essa ferramenta, eu posso classificar isso dentro da nossa caixinha aqui de Machine Learning. E se eu quiser pegar essa massa de dados e simplesmente observar elas, eu posso chamar isso de uma análise exploratória, ou uma análise estatística. Existe uma terminologia que legal a gente utilizar, que eu acho que se encaixa bastante no tema que a gente tá falando aqui hoje.

“A aplicação de Machine Learning se encaixa muito bem quando eu tenho uma grande quantidade de dados e uma necessidade de tomada de decisão com frequência. Ou seja: preciso tomar muitas decisões iguais.”

Aplicando Machine Learning e tomando decisões.

Daniel: Legal! Como a gente tá falando de aplicação de Machine Learning dentro de indústrias, eu sei que a gente toma muita decisão a todo momento. E também, se a gente for falar em termos de dados, a indústria é uma grande geradora de dados hoje em dia. A gente tem muita fonte de informação a retirar de lá. É interessante a gente entender um pouquinho de como é que a gente consegue juntar essas coisas. Como que a gente tem esse termo de “Machine Learning”, tem essa classificação de tomar muitas decisões com muitos dados, e tambem tem a indústria, onde a gente precisa tomar muitas decisões, tem muitos dados.

Guilherme: Mas eu acho que, pelo menos com a experiência que eu tive oportunidade de ter dentro da indústria, as indústrias são ambientes extremamente complexos. Então, são ambientes que têm muitas decisões a serem tomadas, que tem muitas variáveis que impactam o resultado do produto final. Se eu estou em uma indústria de fabricar um produto específico – fabricar uma bebida, fabricar um automóvel – são muitas coisas que tem que acontecer certo para eu conseguir chegar nesse produto final com qualidade, com bom preço, com todas as características que o mundo de hoje em dia pede. Então, tomar essas decisões – e elas têm que ser tomadas a todo momento – porque as condições mudam…

Daniel: Tem muita variabilidade no meio do processo da produção…

Guilherme: E problemas de qualidade do fornecedor, ou acontece uma quebra de máquinas… então, são muitas coisas que acontecem no processo industrial, e que é um grande desafio. Conseguir chegar em todas as demandas que a gente tem de qualidade, de custo, tomando todas as decisões. É por isso que encaixa muito a gente aplicar Machine Learning nos problemas específicos. Para conseguir chegar… Porque são ambientes complexos, são ambientes com uma tomada de decisão muito importante, e que as decisões tomadas geralmente tem um impacto muito grande. Às vezes, você tomar a decisão de parar uma linha de produção porque é melhor parar ela agora do que parar ela depois, é uma decisão muito difícil de ser tomada.

Daniel: E se for uma decisão errada, ela vai ser muito custosa. Tomar decisões erradas acaba sendo caro também dentro das indústrias.

Guilherme: Essa é uma das grandes frentes aqui que a gente pode trazer com o Machine Learning, que é: auxiliar quem está tomando a decisão, a tomar a decisão correta. A melhor decisão baseada nos dados. Poder processar, poder utilizar toda a gama de dados que a gente pode ter disponível para tomar as melhores decisões, eu acho que é um potencial muito grande.

Daniel: E se bem aplicado, a gente entende que a decisão tomada vem mais rápido também, ela é mais assertiva, ela minimiza o erro, né? A gente tem também essas características se, obviamente, o Machine Learning for bem aplicado.

Guilherme: O que é bem específico quando a gente olha em aplicações que a gente já viu… vão se descobrir ainda outras frentes dentro das indústrias que a gente pode aplicar para problemas específicos, mas a gente já tem algumas que são bem comuns hoje em dia.

Daniel: Sim! O que a gente vê bastante sendo aplicada dentro da indústria hoje em dia, é manutenção. Quando a gente fala de manutenção, a gente sabe que manutenção preditiva é um local de grande aplicação de Machine Learning, tem grandes possibilidades. A gente fala de controle de qualidade também, a gente fala da própria produção, na sua performance. Então, produzir um produto específico de uma forma mais performática, de uma forma mais assertiva e com maior qualidade, e obviamente isso tudo acaba implicando em redução de custo. Então, acho que essas são algumas das frentes que a gente consegue aplicar dentro da indústria.

Guilherme: Bem direto hoje em dia. Já tem alguns estudos que mostram que as indústrias que forem aplicar Machine Learning, ou Inteligência Artificial de uma forma, nos próximos cinco a sete anos, tendem a ter um ganho de até dobrar o potencial de produção de cashflow. O potencial é muito grande.

Daniel: Isso que eu queria falar (o que demonstra muito potencial dentro disso): você tem muitas áreas para poder aplicar, tem muitos ganhos… Então, obviamente a gente só tem que tomar muito cuidado e tem que saber aplicar, e não ser levado, digamos assim, pelo hype.

Guilherme: É muito fácil as pessoas se empolgarem – até porque é uma tecnologia, são assuntos que estão bastante na moda, tem um certo hype em cima, mas também fácil de cair em algumas armadilhas, né? Então, se existe esse hype, essa vontade de querer aplicar, porque de fato: a promessa é grande. Mas, pular algumas etapas, ou fazer só simplesmente por fazer, o tiro pode sair pela culatra.

Daniel: Acho que aí que a gente começa a introduzir um pouquinho do objetivo da Live, do título da Live: o por que que acabam falhando algumas iniciativas dentro da indústria? Eu acho que um dos primeiros tópicos que a gente pode começar a falar é, justamente, você ser movido pelo hype, você se vislumbrar muito com possibilidades que o Machine Learning pode trazer.

“Essa é uma das grandes frentes que a gente pode trazer com o Machine Learning, que é: auxiliar quem está tomando a decisão, a tomar a decisão correta. A melhor decisão baseada nos dados.”

Entendendo seu negócio para ter cultura de dados.

Guilherme: De fato. Esse é um tema que está conectado à cultura, está conectado com o que o potencial de aplicação, de fato, pode trazer, é um dos principais pontos. Aplicar por aplicar, simplesmente porque é legal, porque é marketing, vai ser legal na foto, e não olhar [os dados]. Se a gente partir daquela lógica de que “eu quero tomar decisão baseada em dados para resolver um problema”… então qual é o problema? O que eu quero resolver?

Daniel: Justamente, a gente começa tentando entender um pouco do negócio. Então, conforme a gente falou: a gente tem várias áreas para poder aplicar isso. A gente consegue aplicar dentro de qualidade, a gente consegue aplicar dentro da área produtiva, e poder falar de manutenção também… Só que, o começo de tudo, é você compreendendo o teu negócio e sua necessidade. O que de fato eu quero atacar? Qual o problema que eu quero resolver? Machine Learning não é um pozinho mágico que a gente tira do bolso e joga em cima da minha área de manutenção e pronto! Eu vou resolver os problemas que eu tenho ali. Eu acho que começa se identificando esses problemas, a gente tem que começar entendendo: “que dado que eu tenho dentro dessa área?” ou “que dado que eu tenho para poder resolver esse problema?” “eu já coleto esse dado, ou não?” “vou começar a coletar ele” e tudo mais…

Guilherme: Às vezes, a simples coleta de dados já traz o potencial de onde é possível aplicar a ferramenta correta. Não é porque você conhece o martelo, que todo problema é prego. Então, entender exatamente que ferramentas eu tenho, que problema eu tenho, te ajuda a tomar decisões com melhor custo-benefício… porque querendo ou não, também existe uma necessidade de empenho, de esforço, de tecnologia para poder aplicar esse tipo de solução. Você falou do “pozinho mágico”, no fim das contas, são as pessoas que ainda vão tomar decisão em cima daquele resultado. Seja numérico, seja insight. As pessoas que estão ali, na linha de frente – desde a operação, até a parte tática, ou a parte de gestão – as pessoas precisam estar conectadas em entender o que aquilo significa, e dar valor. Então, eu acho que estar conectado com as pessoas ali é bem importante para que se tenha valor no final das contas.

Daniel: Quando a gente fala das pessoas, a gente geralmente tem – e eu falo porque eu venho de uma área mais técnica, digamos assim – tem a pessoa técnica, que vai entender como trabalhar bem com aquele dado, que vai entender como aplicar, de fato, aquele algoritmo de Machine Learning, ou qual ferramenta que venha a ser melhor naquele problema; e a gente tem as pessoas que está ali no dia-a-dia da operação, entendendo que ela tem um problema. E às vezes, tem um gap entre essas duas pessoas. A gente tem um cara só técnico, que sabe só coletar e trabalhar com dados, e a gente tem a pessoa que tá no dia-a-dia, que entende de fato do problema. Essas pessoas ficam meio desconexas e as coisas não funcionam muito bem. Então, aproximar essas pessoas, fazer com que elas conversem, ou até mesmo compartilhar as experiências, eu acho que é muito importante. Quando a gente diz “você precisa compreender o seu negócio, as necessidades das pessoas”, juntar essas pessoas e compartilhar essas dores é muito importante.

Guilherme: Eu acho que não é só uma habilidade. Não é só um skill que é necessário para você poder implementar um projeto como esse. Você vai precisar da pessoa que entende do negócio, da pessoa que entende como processar esse dado, como aplicar a ferramenta, como tomar decisões corretas. Então, envolve todos os skills e todas essas habilidades de cada uma das pessoas envolvidas, e cada um entender um pouquinho de qual é o papel da outra e como elas podem cooperar. Inclusive, linka com um outro ponto que é: para aplicar Machine Learning, eu vou precisar obrigatoriamente de dados. Todo ponto aqui é trabalhar com os dados para poder tirar insights e poder tomar decisões.

Daniel: [um dos pontos] Mais importantes que a gente tem aqui, é de fato, ter dado.

Guilherme: E se a gente não tem essa essa interação entre as pessoas ali, partir para coletar o dado errado, que não tá conectado com o problema, que não tem a ver aqui como objetivo final, é um outro erro que é bastante comum de se passar, e que pode até ter como causa raiz justamente o fato de não ter identificado qual que é o problema…

Daniel: …Não ter levantado primeiro qual é o problema que eu quero resolver. Então, falando aqui da coleta do dado, eu acho que a gente tem dois problemas que podem acontecer que são bem comuns: você ter um dado de má qualidade – que não está nem um pouco conectado com a solução que você quer – ou você tem um dado que não está corretamente “limpo”, não está corretamente classificado, você tem um dado “sujo”, digamos assim. E mesmo que você tenha uma grande quantidade dele (você coleta ele em samples de um em um minuto, por exemplo), e você tem que entender qual é a unidade que você tem que converter e tudo mais, você tem que fazer um esforço grande para poder trabalhar em cima daquele dado. E acaba que você gasta mais tempo limpando dados do que tendo eles para resolver problemas de fato.

Guilherme: Eu acho que isso faz parte inclusive, né? Um pouco da nossa experiência aqui é de que, boa parte do trabalho é justamente entender o dado, em poder processar ele, trabalhar ele e garantir que qualidade é a melhor possível. A gente fala bastante de representar um mundo com base nos dados que a gente tem. Então, o algoritmo vai aprender o mundo que os nossos dados mostram para ele. Se o mundo que a gente quer que ele aprenda não está representado nos dados, isso não vai acontecer. E aí, se a gente tiver “ruídos” nesse dado, seja por frequência de coleta, seja para imprecisão (às vezes um dado o que é colocado manualmente no sistema), ou você não tem um histórico grande suficiente, a quantidade é muito pouca, são todos fatores que vão minando o processo de ter sucesso na aplicação.

“Querendo ou não, também existe uma necessidade de empenho, de esforço, de tecnologia para poder aplicar esse tipo de solução. […] no fim das contas, são as pessoas que ainda vão tomar decisão em cima daquele resultado.”

Interpretando a informação.

Daniel: Obviamente, a má qualidade do dado, ou o pouco dado coletado é um grande problema. Mas também tem o que a gente costuma chamar de extrapolar a informação. Por mais que você tenha um dado de boa qualidade, a gente tem um dado limpo, digamos assim, temos uma grande quantidade para poder resolver nosso problema, também tem as vezes, o fato da gente se deslumbrar muito com o que aquele dado fornece. A gente pega esse dado, tenta resolver um problema e consegue. E aí, a gente começa a pensar: “com essa massa de dados que eu tenho, eu consigo resolver mais problemas e consigo aplicar isso em outras frentes dentro da minha indústria?” E com isso a gente começa a querer responder algumas perguntas que o dado não pode fornecer para a gente. O dado não é mutável, ele é aquilo, e acabou. Às vezes, nesse vislumbre que a gente tem, a gente começa a tentar extrapolar essas informações, começam a querer tirar mais que o dado em si, tem, e a gente se pega batendo a cabeça contra a parede.

Guilherme: De novo, um pouco conexo com a questão de “que mundo o dado representa?”. Eu não posso ter nem de menos e de mais. Preciso dele na medida certa para conseguir chegar naquele resultado. Então, é querer tentar chegar numa aplicação, em um resultado que aquele dado não tem propriedade. [É como] querer chegar na produção ótima, olhando simplesmente dado de previsão do tempo. Outras variáveis estão ali dentro, e querer extrapolar que só a previsão do tempo traduz todas as complexidades que a gente tem durante o processo produtivo, não vai dar certo.

Daniel: Tem uma frase que eu sempre escuto aqui dentro e fica na minha cabeça. A gente está batendo a cabeça contra a parede, e tá tentando esforçar e tentar tirar mais informação do que aquele dado fornece, e às vezes a pessoa vem perguntando: “o que que a gente tá querendo responder mesmo?” “o que a gente, de fato, quer?”. E esses questionamentos fazem com que a gente tire a cabeça do buraco e entenda que talvez eu esteja realmente querendo esforçar muito mais do que o dado tem.

Guilherme: Alguma informação que o dado não tem ali dentro.

Daniel: Esse é um outro buraco que a gente pode cair.

Guilherme: Tentar tirar ouro de uma terra que não tem ouro dentro. Tem um caso muito legal aqui dentro da ST, que eu acho que a gente pode até falar com bastante propriedade, que é a criação do Start. A gente inclusive se conecta muito com a definição que a gente tem de Machine Learning, como uma ferramenta de tomar muitas decisões repetidas. Então, a gente tem o nosso problema de “coleto ou não coleto uma variável de uma máquina? que tipo de variável ela é?”. Eu tenho muitas variáveis para tomar uma decisão, e aí, é um clássico de aplicar um algoritmo específico para isso. A gente passou por essa dor de entrar no mundo, esquecer da pergunta principal e tentar tirar uma informação do dado que a gente tinha dos equipamentos, dos controladores, que não estavam ali dentro. Acho que a gente conseguiu depois tirar a cabeça de dentro [do buraco], conseguiu entender onde essa informação estava e onde a gente teve mais sucesso. Apesar de com certeza [a gente] não tá pronto. Nunca tá 100%, né?

Daniel: Esse é o mindset que a gente tem que ter.

Guilherme: Mas acho que a gente só conseguiu ter êxito a partir do momento em que a gente entendeu onde a informação que a gente buscava estava. Acho que esse é um ponto muito importante.

Daniel: Isso aí!

Concluindo

Guilherme: Eu acho que o último grande ponto que é importante, é: não adianta nada a gente partir para toda essa jornada de formar as pessoas, coletar os dados, ter os dados corretos, tratar, treinar algoritmos, gerar insights, gerava valores, e no fim das contas não utilizar isso. Não ter o mindset de que esta informação é útil. Que existe um valor por trás e que isso pode ser utilizado. Claro que existem técnicas para a gente entender se esse algoritmo, se essa aplicação de Machine Learning de fato está conectada, se ela se aplica, se ela traz valor. Mas uma vez que isso tá provado, entendendo os riscos – não acho que existe solução ou ferramenta perfeita – não adianta nada a gente não utilizar. Ter um insight e não tomar decisão.

Daniel: Tem que praticar. Não adianta nada você ter uma massa de dados e guardar ela na sua gaveta, esquecer que ela está lá, e só olhar daqui a vários meses. Acho que é interessante sempre estar praticando, sempre estar tentando responder coisas diferentes com base naquele dado, e coletar dados novos. Eu acho que isso tem a ver um pouco com você poder implementar uma cultura de dados dentro dos ambientes.

Guilherme: Extrapola até a questão do Machine Learning. Ter a cultura de pensar em dados, pensar em números, olhar para o que os números querem te dizer. E tem um pouco de técnica nisso, mas tem um pouco de cultura também. Você pode olhar para esse dado e tirar a informação certa dele, e aplicar de forma correta. Não adianta você ter todas as massas de dados, e não utilizar da forma correta.

Daniel: E você também disseminar esse tipo de pensamento, né? Porque, às vezes, você tem uma visão do negócio e uma outra pessoa tem uma outra visão. Então se você dissemina esse tipo de cultura, esse tipo de pensamento, você tem várias pessoas dentro do seu ambiente pensando em dados. E às vezes ela se depara com algum problema no dia a dia, e ela também se pergunta: “que dado que eu tenho, ou o que dado eu posso coletar, no qual eu consigo resolver esse tipo de problema?”. Eu digo esse problema de cultura, mas eu acho que aqui dentro da ST, a gente respira dados. A gente tem um pouco dessa cultura de todo mundo estar pensando: “será que esse dado eu já coleto? O que eu mais eu posso coletar? O que mais eu posso agregar?”

Guilherme: Eu acho que em todas as frentes que a gente tem – desde marketing, até comercial, a própria operação, o desenvolvimento – entender que a gente pode coletar sempre cada vez mais dados.

Daniel: E também comunicar. “Olha gente, temos esses dados disponíveis aqui, temos esses dados disponíveis aqui”.

Guilherme: Então, [ser] transparente

Daniel: Ser transparente com isso. Vamos usar, vamos realmente esforçar isso. Vamos espalhar essa cultura.

Guilherme: A gente fala bastante de produtividade, de qualidade, de performance, que são os pilares da eficiência operacional, ou do OEE, que é o termo conhecido. Mas, existe também uma frente hoje de governança, de poder ser transparente, como você falou. De dar transparência para todo mundo. Até de meio ambiente, impacto de carbono. Você poder utilizar essa massa de dados e utilizar os insights que, bem treinados, com as ferramentas corretas, podem te trazer resultado, bem além do que a gente estava acostumado. E eu acho que vão abrir outros ganhos ainda. Então acho que estou 100% conectado com a dor da “cultura” de implementar isso. Acho que, na verdade, daria para falar por bastante tempo sobre cultura. É quase outra live. Porque de fato, é muito denso essa parte de cultura. As pessoas estarem, independente de cargo, independente de posição… poderem ter o mindset, poderem ter forma de pensar de que existem dados, existem informações escondidas que podem ser utilizadas, visualizadas na forma correta, tratadas da forma correta, …

Daniel: É entender também que, você não vai ter uma solução perfeita para colocar em cima daquele dado e poder já extrair a tua resposta na hora. Mas sim, que você vai precisar esforçar isso, que você vai ficar testando várias vezes até que consiga de fato, resolver isso. Ou até, que você consiga tirar mais informação do que foi proposto inicialmente. Eu acho que é interessante.

Gostou do nosso conteúdo? Continue lendo nossos blog e nos acompanhe no nosso Linkedin.

O FUTURO DA DIGITALIZAÇÃO INDUSTRIAL

CONHEÇA JÁ
By | Categories: Uncategorized |

Gostou do conteúdo? Compartilhe com quem pode precisar!

PRONTO PARA A ERA 4.0?

FAÇA UMA AVALIAÇÃO E DESCUBRA O BIG DATA INDUSTRIAL

Comece agora!