A análise de dados está a tornar-se rapidamente a chave para uma estratégia empresarial de sucesso. Mas sem a abordagem, competências e tácticas correctas, as suas iniciativas de dados podem não ter sentido. O Data Analytics tornou-se um dos mais importantes diferenciadores no mundo dos negócios e tecnológicos para as empresas, permitindo-lhes obter conhecimentos detalhados sobre praticamente todos os aspectos das suas operações, ganhando assim uma vantagem sobre a concorrência.
De acordo com Gartner, estas são as principais tendências que estão a emergir: a análise, para além de reflectir o desempenho, irá impulsionar as operações empresariais modernas; as empresas irão criar arquitecturas de ponta a ponta que permitirão a gestão e análise de dados desde o núcleo até aos limites da organização; e os executivos irão tornar os dados e a análise parte da estratégia empresarial, permitindo que os profissionais de dados assumam novas funções e contribuam para o crescimento empresarial.
Entretanto, com toda esta ênfase na análise de dados, muitas empresas estão a cair em armadilhas que põem em risco ou desperdiçam o verdadeiro valor do Data Analytics.
Eis sete formas de falhar no mundo da análise que pode evitar, segundo os líderes de TI e peritos da indústria.
Se não souber que tendências ou sinais específicos a procurar nos dados, como pode esperar obter um valor real dos mesmos? Assim, o maior problema com o processo de análise é não ter uma pista do que se está à procura nos dados.
A ideia de que um sistema pode descobrir por si só os elementos mais interessantes dos dados tem levado muitas empresas a desviarem-se durante décadas. Mesmo com a aprendizagem mecânica, é útil saber o que se procura em termos de relações nos dados.
É importante procurar pessoas que saibam como consultar dados e possam contar a história completa e exacta do que estão a tentar dizer. O perfil perfeito são pessoas apaixonadas pela utilização de dados para responder a perguntas e dispostas a questionar constantemente as suas descobertas para assegurar que os dados não só se encaixam numa única narrativa, mas que podem explicar o que estamos a ver e ajudar a prever para onde estamos a ir. Em última análise, é essencial que todos saibam o que estamos a tentar encontrar com os dados e os nossos objectivos gerais, e recolher métricas e dados consistentes.
Uma receita de fracasso é uma falta de foco quando se lança uma proposta analítica. As equipas de dados serão mais bem sucedidas quando se concentrarem num conjunto priorizado de resultados. Em muitos casos, as equipas falham porque se espera que satisfaçam demasiadas exigências comerciais ao mesmo tempo, o que em última análise as leva a não ter um impacto significativo para sustentar o interesse ou o financiamento.
Pode sentir-se fortemente tentado a construir e manter a sua própria grande infra-estrutura de dados. Mas em troca pode pôr em risco os objectivos dos seus esforços analíticos. Isto resulta normalmente em que os cientistas de dados perdem muito tempo em tarefas que não o desenvolvimento de melhores análises.
"Sabíamos que queríamos muitos dados em que basear a nossa análise", diz Tavakoli, director de tecnologia da empresa Vectra, cybersecurity. "Começámos por fazer o que todos lhe dizem para fazer: comprámos um monte de servidores com muita capacidade de disco, colocámo-los nas nossas instalações de co-localização, criámos o nosso próprio cluster Hadoop na Apache Spark e pedimos aos nossos cientistas de dados que escrevessem o código Scala para interagir com o cluster".
O cluster quebrar-se-ia, por vezes devido a falhas de hardware, mas mais frequentemente devido a falhas de software. Os pacotes de software ficariam desactualizados e por vezes passariam horas sem que o agrupamento estivesse disponível.
"Acabámos por ficar fartos e decidimos subcontratar esta parte do problema", diz Tavakoli. Vectra contratou um fornecedor externo para cuidar dos aspectos práticos, e desde então, quase todo o seu tempo foi gasto a introduzir dados no sistema e a analisá-los.
Há muito que as empresas lutam com o problema dos "silos de dados" que impedem que diferentes departamentos partilhem informações úteis e benéficas em toda a organização. O mesmo desafio se aplica à análise. Por conseguinte, uma boa prática é unificar dados díspares.
Cada silo de dados cria uma barreira entre as interconexões que pode fornecer valor. Por exemplo, pense num perfil de utilizador valioso ligado ou desligado dos dados de actividade do website. Quanto mais dados puderem ser interconectados, melhor, pois é nessas interconexões que se pode encontrar o poder preditivo.
Mas esta mudança não tem de envolver a deslocação de todos os dados dos seus sistemas de origem para um monólito. Em vez disso, pode utilizar uma das modernas tecnologias de integração para fornecer uma visão unificada dos dados dos seus sistemas actuais.
Se os dados em análise forem incorrectos, desactualizados ou mal organizados, o valor da análise pode ser drasticamente reduzido. O problema da entrada e saída de dados de lixo é agravado pelo volume e âmbito dos dados brutos da empresa. As melhores equipas analíticas querem qualidade para permear os seus dados. É por isso que criar processos e aproveitar a tecnologia para se concentrar no cumprimento dos padrões de qualidade é uma combinação vencedora.
Do ponto de vista do processo, é importante assegurar a repetibilidade dos processos e a capacidade de controlar os resultados. Do lado da tecnologia, a utilização de ferramentas de qualidade de dados, incluindo a criação de perfis, a gestão de metadados, a limpeza, o sourcing, etc., ajuda a assegurar uma melhor qualidade dos dados.
As empresas devem utilizar ferramentas para limpar os resíduos (dados incompletos e quebrados) e transformar dados de diferentes fontes para os tornar compatíveis e compreensíveis e facilitar ao máximo a sua análise. Além disso, devem tentar tornar os seus dados tão auto-descritivos quanto possível para que todos os membros da equipa compreendam o significado dos diferentes bits de dados.
Os dados de alta qualidade são o combustível chave para gerar percepções úteis. Devem ser criados armazéns de dados e lagos de dados para reunir dados estruturados e não estruturados. As empresas bem sucedidas primeiro certificam-se de melhorar a qualidade dos dados através de limpeza, processamento de valores em falta, e etiquetagem precisa dos mesmos.
Uma boa higiene dos dados também significa manter os dados tão actualizados quanto possível. Os dados devem ser frescos e o "universo de dados" deve estar em constante expansão para que as empresas possam continuar a obter valor a partir da análise.
Para manter os seus dados tão frescos quanto possível, precisa de conhecer a periodicidade dos processos de aquisição de dados actuais. Claramente, um sistema que recolhe informação em tempo real terá dados mais actualizados do que um sistema que não o faz. O refreshment pode também contar com a utilização de serviços de terceiros para aumentar a tecnologia e os processos existentes.
Como em qualquer outro tipo de grande projecto informático, o facto de não ter apoio da direcção para projectos de análise de dados pode prejudicar o sucesso da iniciativa.
O objectivo das equipas de análise é gerar insights ligando os dados às decisões tácticas e estratégicas de uma empresa. Seria inútil para uma equipa de ciência de dados realizar grandes análises de dados e desenvolver modelos de previsão precisos se estes resultados não forem aplicados na prática porque exigem mudanças na cultura da empresa.
A construção de uma fundação de gestão de dados requer um esforço sustentado ao longo do tempo, normalmente vários anos. De facto, algum do trabalho que a equipa de dados e análises precisa de conduzir não terá resultados visíveis imediatos, o que pode colidir com as expectativas dos parceiros. É necessário um forte compromisso de liderança para educar os parceiros de modo a permitir um futuro orientado pelos dados.
A análise que é feita no vácuo por cientistas de dados e outros peritos, sem uma forte contribuição de gestores de empresas que conhecem em primeira mão a necessidade de análise, é muito susceptível de falhar. Sem o envolvimento de gestores de nível médio e inferior, a informação que a equipa de análise irá fornecer à equipa de gestão não será suficientemente útil para lhes permitir melhorar o seu trabalho diariamente.
A informação será indicativa, apontando grandes falhas no processo ou áreas a melhorar, mas na realidade a gestão irá revê-la quando tiverem tempo. E a maioria dos gestores não tem tempo extra. Só quando a equipa é constituída por pessoas que conhecem o negócio e a informação de que necessita para aceder todos os dias é que a informação entregue será suficientemente tangível para ter um impacto positivo no negócio.
Contudo, se os analistas pudessem dizer aos utilizadores onde existe um problema real e específico (por exemplo, onde é mais provável que falhem), suficientemente cedo para que o possam evitar, os utilizadores empresariais poderão utilizar esta informação diariamente e a iniciativa será bem sucedida.
Este é um problema comum às empresas, em grande parte porque competências como a ciência dos dados são tão difíceis de encontrar. Se a literacia de dados não for vista como um elemento fundamental da cultura de uma empresa, as hipóteses de falha analítica são ainda maiores.
Para os utilizadores não familiarizados com a análise, a ciência dos dados é vista como uma forma mágica de resolver problemas. O conceito de previsão e aprendizagem de máquinas é muito difícil de compreender para as pessoas, por isso será difícil convencer os seus parceiros a tomar decisões sobre algoritmos. Terá de os educar primeiro.
E as empresas continuam a lutar para encontrar cientistas de dados e outros profissionais com competências analíticas. Uma das melhores formas de desenvolver esta capacidade é preparar este talento, em vez de procurar super-estrelas fora da organização. Muitos projectos falham ou são atrasados porque as empresas não conseguem contratar pessoal analítico a tempo, ou perdem-no devido a um elevado desgaste.
Referências: Todos os direitos reservados ao CIO