BIG DATA E A SUA APLICABILIDADE EM
INSTITUIÇÕES FINANCEIRAS
Nome do orientador: Haroldo Luiz dos Santos
Nome do acadêmico: Patrícia de Fátima e Almeida
Revisão, dicas, apoio e.... muitas
idéias: Willian Hofner
RESUMO
Este trabalho apresenta
informações sobre o conceito big data e a sua aplicabilidade
em instituições financeiras que buscam evoluir na mesma velocidade das mudanças
comportamentais dos clientes para manterem sua relevância no mercado.
PALAVRAS CHAVE: BIG DATA, HADOOP, NOSQL,
INTERNET DAS COISAS, ANALYTICS.
ABSTRACT
This paper presents information about the Big Data concept and its
applicability to financial institutions seeking to evolve at the same rate of
behavioral changes of customers to maintain their relevance in the market.
KEYWORDS: BIG
DATA, HADOOP, NOSQL, INTERNET OF THINGS, ANALYTICS.
INTRODUÇÃO
Big data é um conceito que utiliza
um conjunto de ferramentas capazes de capturar, armazenar e analisar em tempo
hábil um enorme volume de dados estruturados e não estruturados,
transformando-os em informações úteis que podem ajudar as organizações a operar
de forma mais eficiente e rentável.
Diariamente volumes enormes de dados são gerados no mundo através de transações
bancárias, e-mails, logs, sensores, redes sociais, sistemas ERP (Enterprise
Resource Planning) entre outros. Se as empresas souberem como utilizar
esses dados poderão saber o que precisa ser feito para melhorar e personalizar
os seus produtos e serviços, entender melhor o seu cliente, desenvolver
campanhas de marketing direcionadas, disponibilizar serviços para clientes
especiais, escolher os melhores talentos para a sua empresa, melhorar a
segurança digital e assim por diante.
Grande parte destas
informações são disponibilizadas atualmente pelas gerações Y e Z que nasceram
em uma época de grandes avanços tecnológicos. Estas gerações são compostas por
pessoas acostumadas a criar, consumir e divulgar conteúdos e que pela
quantidade de acessos às informações são consumidores extremamente
exigentes.
Esta ‘explosão de dados’ será ainda maior com a Internet das Coisas (rede de
dispositivos conectados que se comunicam entre si), quando vários dispositivos
das nossas casas tais como TVs, lavadoras de roupa, cafeteiras, computadores e
smartphones estiverem conectados à internet e gerando dados.
Inicialmente a IBM definiu que uma solução big data se baseava
em 3 Vs: Volume (quantidade de dados que crescem exponencialmente), Velocidade
(obtenção, gravação e transformação dos dados em tempo hábil ou até mesmo em
tempo real) e Variedade (formato estruturado ou não). Veracidade (qualidade dos
dados) e Valor (agregação de valor que compense o investimento) surgiram
posteriormente.
Antes as empresas já trabalhavam com soluções de Business Intelligence, Data
Mining e CRM pra analisar dados e gerar suporte às tomadas de
decisões.
O big data aparece neste cenário agregando volume de
dados, inteligência às soluções e utilizando-se de análise preditiva para
antecipar possíveis comportamentos, permitindo assim a geração de insights
poderosos com os quais as empresas podem obter vantagens de negócio.
A previsão é que as marcas
que se prepararem melhor para obter inteligência a partir das informações
geradas pelos consumidores nesse novo ambiente, estarão na dianteira dessa nova
era e serão as empresas do futuro.
Como usuárias deste
poderoso conceito surgem as instituições financeiras que enfrentam o desafio de
alcançar o seu espaço neste universo online o quanto antes já que inovações
como bancos totalmente digitais, Google Wallet e Square, iZettle e Alipay estão
penetrando no território bancário, apresentando um novo desafio competitivo.
Segundo a Accenture, até 2020 mais de 30% das receitas bancárias estarão em
risco para esses novos competidores e tendências e que 40% dos clientes
gostariam que empresas como Apple e Amazon oferecessem serviços financeiros.
PROBLEMA DE PESQUISA
Como o big data pode ajudar as instituições
financeiras a se destacarem no mercado e a não sucumbirem diante dos novos
concorrentes?
OBJETIVO PRINCIPAL
Identificar
as aplicabilidades do conceito big
data nas Instituições Financeiras
com objetivo de torná-las ainda mais competitivas.
OBJETIVOS ESPECÍFICOS
-
Compreender o conceito Big Data, seus benefícios, aplicabilidades e as questões
de ética e de privacidade que o envolvem;
- Descrever de forma sucinta a infraestrutura e tecnologia necessárias para
utilização do conceito Big Data, as formas de geração, captura, armazenamento,
processamento e análise dos dados e identificar quem são os consumidores dos
dados e informações geradas;
- Identificar como o big data pode ajudar as Instituições
Financeiras na tomada de decisões estratégicas, na geração de informações
gerenciais para fins regulatórios e na redução de perdas com operações
fraudulentas.
REFERENCIAL TEÓRICO
BIG DATA – Um pouco de
história
Atualmente
temos várias suposições sobre o nascimento do conceito Big Data. Seguem abaixo alguns
deles:
"A história de como os dados se tornaram grandes começa muitos anos antes
da atual febre em torno do conceito big
data. Há 70 anos atrás, encontramos as primeiras tentativas de quantificar
a taxa de crescimento do volume de dados ou o que popularmente é conhecida como
a ‘explosão da informação’". (Gil Press da Forbes Magazine, 2013).
"O termo big data nasceu no início da década de
1990, na NASA, para descrever grandes conjuntos de dados complexos que desafiam
os limites computacionais tradicionais de captura, processamento, análise e
armazenamento informacional." (Rodrigo Arrigoni, 2013).
"O conceito big data começou a ser discutido a cerca de
70 anos, a produção escrita da humanidade crescia a taxas exponenciais e o
acesso à informação enfrentava grandes desafios devido ao seu volume. Essa
discussão restringia-se ao universo da filosofia, já que a tecnologia da
informação ainda estava em etapa embrionária." (Marcos Vieira, 2014).
"O termo big data é relativamente novo e ao mesmo
tempo velho, surgindo por volta de 2005 com o Google e recebeu uma alavancada
em 2008 com o pessoal do Yahoo que transformou a plataforma Hadoop em Open Source." (Alexandre
Tarifa e Diego Nogare, 2015).
"Big data é um nome relativamente recente (ou, ao
menos, começou a aparecer na mídia recentemente) [...] Há tempos que
departamentos de TI contemplam aplicações de Data
Mining, Business
Intelligence e CRM (Customer
Relationship Management), por exemplo,
para tratar justamente de
análise de dados, tomadas de decisões e outros aspectos relacionados ao
negócio." (Emerson Alecrim, 2015).
BIG DATA – Um conceito
Abaixo
conceitos de big data segundo alguns autores:
"Big data é um termo utilizado para descrever o
conjunto de soluções tecnológicas ou uma ciência feita a partir das megabases
de dados disponíveis na internet, que analisam e dão sentido a essas
informações." (Carolina Cunha, 2015).
"Um conceito criado
pelo mercado relacionando novas arquiteturas tecnológicas à capacidade de
analisar qualquer volume e variedade de informações em uma velocidade próxima
ao tempo real, abrindo novas possibilidades a nível de negócio." (Jefferson
Stela).
"Podemos definir o
conceito de big data como sendo conjuntos de dados
extremamente amplos e que, por este motivo, necessitam de ferramentas
especialmente preparadas para lidar com grandes volumes, de forma que toda e
qualquer informação nestes meios possa ser encontrada, analisada e aproveitada
em tempo hábil." (Emerson Alecrim, 2015).
"É a ponta do iceberg de uma tendência maior que a gente
esta vivendo na sociedade hoje. É a tendência de automação do processo de
produção de bens de informação... desde os dados brutos até os resultados das
análise [...] Big data é um pedacinho deste
contexto." (Thoran)
BIG DATA – 5 Vs
Em 2001,
Doug Laney (analista da Gartner)
baseou a definição do termo big
data em três Vs: Volume,
Velocidade e Variedade.
Cézar Taurion definiu big
data inicialmente como sendo a soma destes mesmos 3 ‘Vs’. Posteriormente
acrescentou os ‘Vs’ veracidade e valor e ressaltou que as oportunidades que
esses 5 ‘Vs’ trazem não podem ser desperdiças.
O Sebrae Nacional define os 5 ‘Vs’ conforme abaixo:
Volume – São informações medidas em Zetabytes que são compostas por e-mails,
mensagens, vídeos, fotos, imagens e comentários que circulam na rede.
Variedade – São dados
estruturado e não estruturados que por não terem padrão exigem um maior esforço
na análise.
Velocidade – É a possibilidade de obter dados sobre determinado fenômeno em
tempo real diminuindo o tempo entre a obtenção da informação e a tomada de
decisão.
Veracidade – São dados fidedignos porque representam interações reais em redes
sociais ou rastros de navegação.
Valor – As informações devem gerar valor para o negócio.
BIG DATA – Diferenças para o CRM e
BI
Em 2014,
Edson Cardoso diferenciou o conceito big
data do BI e CRM de forma
brilhante.
Para ele, CRM é uma
ferramenta para análise de comportamento e relacionamento com os clientes com a
qual é possível criar um banco de dados
que permite conhecer o perfil do público atendido, separado por critérios como
regiões de atuação, ramo de vendas e horários de frequência e compras.
O Big Data é mais abrangente porque engloba ferramentas que permite interagir e
coletar dados de diversas fontes tais como: bancos de dados internos, sistemas
ERP, redes sociais e até mesmo do CRM.
O BI normalmente entrega análise de informações passadas que são extraídas das
bases locais e analisadas e entregues em dashboards. Já o big data interpreta cenários e faz
projeções antecipando possíveis acontecimentos tornando a vida corporativa mais
fácil.
Todas as soluções que
possuem os 5 V’s podem ser consideradas big
data.
BIG DATA – Geração de
conteúdo
As fontes
de geração de conteúdo que impulsiona e serve como base para os resultados do
conceito big data são diversas. Em 2014, a IBM definiu que estas fontes podem
vir de todos os canais e podem ser internos e externos às empresas.
Segundo a IBM (2013), 90% das informações disponíveis no mundo foram geradas
entre 2010 e 2012 e dobrará até o final de 2015 com uma geração diária 2,5
exabytes de conteúdo. Esta quantidade de dados é tão grande que a única maneira
de aproveitá-la é utilizando automação máquina a máquina ou consulta
inteligente de big data.
Cézar Taurion afirmou em
2012 que o volume de dados do planeta dobra a cada 18 meses e que a geração
diária chega a petabytes de dados. Ele ressaltou também o
‘V’ variedade ao escrever que estes dados são gerados
a partir de sistemas estruturados e não estruturados tais como: emails, mídias sociais (Facebook,
Twitter, YouTube e outros),
documentos eletrônicos, apresentações
estilo Powerpoint,
mensagens instantâneas, sensores, etiquetas RFID e câmeras de vídeo.
Em seu site, a Hekima (2015) descreve que tudo é matéria prima para o big data. Segundo ela, as
empresas podem utilizar desde banco de dados de call center até conteúdo de
planilhas financeiras e contábeis para conhecerem melhor os seus clientes e concorrentes
e preverem tendências.
Carolina cunha (2015)
atribui a grande geração de informação atual à utilização de aplicativos de
celular e tablet, GPS e câmeras, à interação em canais digitais tais como sites
e redes sociais além da geração de dados pelos sensores e equipamentos médicos.
Ela ainda afirma que um dos impulsionadores do conceito big data é a ascensão
da Internet das Coisas com dispositivos que podem gerar dados sobre
meio-ambiente, cidades, energia, saúde, entre outros.
A revista Super Interessante (2012) cita os cookies como imprescindíveis ao big
data ao ajudarem a conhecer melhor o internauta.
Jefferson Stela acrescenta que grande parte das informações usadas em decisões
são estruturadas e que as informações não estruturadas podem agregar ainda mais
valor para as empresas e os consumidores. Ele cita como exemplo de dados não
estruturados o conteúdo de redes sociais, vídeos, sensores, voz e dados de
maquinas.
Em 2014, Paschoal Pipolo mencionou também a importância dos dados não
estruturados. Vide abaixo sua opinião sobre os dados gerado a partir da
interação com o mundo digital:
"Aplicativos sociais
como Facebook, Twitter, Linkedin, Waze, Foursquare, YouTube,
TripAdvisor, permitem que nos expressemos livremente e que nossas opiniões
possam ser vistas e ouvidas em qualquer lugar do planeta. Ao interagirmos com
esse mundo digital passamos, ainda que inconscientemente, a deixar marcas e
revelar quem somos, como agimos e como nos posicionamos perante qualquer
assunto, permitindo o estabelecimento de conexões em todos os níveis. [...]
Diariamente, por meio desses dispositivos e conexões, compartilhamos 30
bilhões de informações, 10 bilhões da quais relativas a novas mensagens no
Facebook e 500 milhões de tweets [...]."
Marcos Panichi (2012), líder da área de soluções de Information Management da IBM, conclui que esta grande
geração de informações, que foi a impulsionadora da era big data, está
diretamente relacionada com a forma de trabalhar da geração Y, sempre em equipe
e conectada em redes sociais.
BIG DATA - Tecnologia e
Infraestrutura
Cézar
Taurion esclareceu em 2012, que tecnologias como o modelo relacional utilizado
pelas empresas para armazenarem e gerenciarem os dados gerados pelos sistemas
internos não suportam dados não estruturados e em grande volume utilizados pelo big data.
Segundo ele, as tecnologias que sustentam o conceito big data são as Analytics, tendo Hadoop e MapReduce como nomes principais, e as
tecnologias de infraestrutura como os bancos de dados NoSQL (Not Only SQL) que
armazenam e processam os petabytes de dados. Cita também:
- Sistemas colunares como o Big
Table que são usados internamente pelo Google;
- Modelo Key/value como DynamoDB da Amazon;
- Modelo document database baseado no conceito proposto pelo
Lotus Notes da IBM e aplicado em softwares como MongoDB;
- Modelo baseado em grafos como o Neo4j.
Para a IBM (2013), os aplicativos de big
data precisam muitas vezes de
soluções que incluem APIs baseadas na nuvem para fazer interface com pesquisas
colunares avançadas, algoritmos de aprendizado de máquina e analítica avançada,
como visão de computador, analítica de vídeo e ferramentas de visualização.
BIG DATA – Captura de
conteúdo
Segundo a
IBM (2014), os dados são coletados diretamente ou através de provedores de
dados, em tempo real ou em modo em lote.
Marcos Vieira (2014) relata a fase de captura de dados como uma etapa em que o
trabalho varia muito de acordo com o volume e a complexidade dos dados.
Segundo ele, algumas fontes como Google
Analytics, Facebook, Twitter, ferramentas
de Email Marketing e alguns publicadores de conteúdo
possuem extratores já programados, caso contrário será necessário o
desenvolvimento de um webservice para tal função.
"Quando se faz
necessário coletar dados de páginas, sejam estáticas ou dinâmicas, é necessário
entender a estrutura dos dados contidos nessa página a fim de desenvolver um
crawler capaz de buscar e armazenar esses dados. Quando a página não possui API
de consumo ou a API possui limites indesejados, é possível utilizar ferramentas
para capturar as páginas e extrair os dados sem a utilização de APIs.".
(Node, 2014).
A Graph API e a Public Feed API são utilizadas para consumo de
dados disponibilizados pelo Facebook. A diferença entre as duas é que a Public Feed API possui acesso restrito a um
conjunto de editores de mídia e seu uso requer aprovação prévia. (Facebook,
2014).
Segundo Eduardo Harada
(2015), a Data API v3 é a API mais recente do YouTube e conta com suporte à utilização
de comentários nos vídeos, legendas e notificações.
Abaixo Tiago Cruz França,
Fabrício Firmino de Faria, Fabio Medeiros Rangel, Claudio Miceli de Farias e
Jonice Oliveira (2014) descrevem formas e dão exemplos de APIs de acesso à
dados do Twitter:
"Normalmente, há duas
formas diferentes de coleta de dados das redes sociais online. A
primeira forma consiste em determinar termos e coletar por citações destes
termos no passado. Desta forma, existe a possibilidade de restrições na
obtenção de dados antigos,
pois normalmente há um
período de tempo viável para a coleta dos dados. A segunda se baseia em um
conceito de streaming, onde a aplicação criada funciona como um
‘ouvinte’ da rede e captura os dados à medida que estes surgem.[...] O Twitter é
uma rede social online que possui duas APIs diferentes para a
captura dos seus dados: REST API e Streaming API. [...] O Twitter trabalha
com o padrão de arquivo JSON (JavaScript Object Notation). Todos os dados são
recebidos nesse formato."
BIG DATA - Armazenamento
Carolina
Cunha (2015) reforça que os Sistemas de Gerenciamento de Banco de Dados
Relacional, embora tenha sido um dos grandes desenvolvimento tecnológicos em
computação do século passado, não são compatíveis com os dados não
estruturados.
Para solucionar este problema, a IBM (2014) cita o distributed file storage (DFS), nuvem e NoSQL como opções
de armazenamento para estes dados.
Emerson Alecrim justifica que os bancos de dados tradicionais não são adequados
para tratar grandes volumes de dados não estruturados por serem menos
flexíveis. Como solução ele cita também o conceito NoSQL que possibilita o
armazenamento de diversas formas e é compatível com um grupo de premissas que
compete com as propriedades ACID (Atomicity, Consistency, Isolation e Durability): a BASE (Basically Available, Soft state, Eventually consistency).
A seguir alguns exemplos
de bancos de dado NoSQL segundo Emerson Alecrim: Cassandra, MongoDB, HBase,
CouchDB e o Redis.
BIG DATA - Processamento e análise
Renna
Setti ressalta que o grande diferencial das soluções big data é a análise de
dados não estruturados que dependem do contexto para terem sentido.
Na revista FEBRABAN de 2014, Paschoal Pipolo menciona que uso do big data através de analytics (um conjunto de técnicas
sofisticadas de análise quantitativa e estatística) aliada ao uso de modelos
preditivos pode aumentar a competitividade das empresas e proporcionar
diferenciação num mercado saturado de produtos similares.
Segundo a IBM (2014), esta
é uma tarefa complexa que exige processos eficientes de alto desempenho com
mecanismo de análise com vários fluxos de trabalho, algoritmos e ferramentas
que apoiam o processamento paralelo.
Para Carolina Cunha (2015), os sistemas e ferramentas implementados para o
conceito big data devem combinar matemática,
estatística e ciência da computação e gerarem resultados em tempo hábil para
tomada de decisões.
Marcos Vieira (2014)
descreve a etapa de processamento e análise da seguinte forma:
"Uma vez que os dados
já estão todos armazenados e disponíveis de forma adequada, passamos para a
etapa de tratamento e enriquecimento.
A matéria de tratamento algorítmico abrange: criação de índices, aplicação
estatística indutiva (análise de comportamento e clusters), modelagem preditiva
(estimativa resultados futuros) e de algoritmos relativos a natureza de dados
(processamento de imagens, análise semântica de textos, etc).
Esses processos têm grande dependência do resultado final que se deseja. Cada
empresa possui uma necessidade e/ou uma capacidade técnica de aplicar alguns ou
vários dos métodos citados.
As habilidades necessárias nessa etapa se dividem sobretudo entre conhecimentos
de economia (econometria), computação, matemática e estatística. Como se pode
imaginar é muito difícil que uma empresa possua uma equipe que domine todas
essa técnicas, tanto mais difícil é encontrar um profissional que, sozinho,
consiga resolver todas elas. O padrão no mercado é terceirizar projetos com
empresas especializadas que já acumulam expertise nas soluções
desejadas."
Marcos Vieira ainda lista
algumas técnicas que podem ser utilizadas na busca dos dados. São elas: Análise
Semântica, Análise Preditiva e Análise de Cluster
Emerson Alecrim cita a
plataforma open source Hadoop como uma solução para o
processamento e análise de grandes volumes de dados estruturados e não
estruturados e a tecnologia de MapReduce como um modelo de
programação que distribui o processamento a ser realizado entre vários
computadores para ajudar o seu mecanismo de busca a ficar mais rápido e livre
da necessidades de servidores poderosos e caros.
Abaixo as razões, segundo Emerson Alecrim, do Hadoop ser
considerado uma solução adequada para o big data:
- Por ser um projeto open
source, permite modificações para fins de customização e o torna suscetível
a melhorias constantes graças à sua rede de colaboração;
- Não exige o pagamento de licenças e suporta hardware convencional
tornando os projetos mais baratos;
- Tem recursos de
tolerância a falhas, como replicação de dados;
- É escalável, isto é, permite o acréscimo de computadores sem necessidade de
realizar reconfigurações complexas no sistema.
BIG DATA - Consumidores dos dados e informações
Em 2014 a
IBM definiu como consumidores das informações geradas pelo conceito big data os
aplicativos de visualização, seres humanos, processos de negócios ou serviços.
Paschoal Pipolo ressalta, na revista FEBRABAN de 2014, a importância das
ferramentas de visualização. Segundo ele, estas ferramentas auxiliam as áreas
de negócio a interpretarem as informações geradas pelo big data e muitas vezes possibilitam a
descoberta e exploração visual de padrões e a identificação de relacionamentos,
de maneira eficiente e sem necessidade de programação. Ele cita o tableau como
exemplo de ferramenta.
BIG DATA - Benefícios
Jefferson
Stela esclarece que:
"Big data não
é uma tecnologia específica e, quando tratamos deste assunto focando nessa
parte técnica, abstraímos aquilo de melhor que este novo conceito traz ao
mercado: a capacidade real de transformar o negócio mudando a maneira como
analisamos as informações usadas em tomadas de decisão. Consumidores passarão a
serem tratados como únicos e serão mais entendidos em relação a anseios,
desejos e comportamento. [...] Do outro lado empresas passarão a se beneficiar
dessas informações e entenderão qual cliente precisa de qual produto ou
serviço. Os benefícios, de ambos os lados, são inúmeros, basicamente depende da
criatividade de quem cria e atrelado a necessidade de quem usa."
Para Manyika, o grande
benefício do big data é permitir a análise de qualquer tipo de informação
digital em tempo real, gerando base para a tomada de decisões e
consequentemente melhorando a competitividade, produtividade, inovação e
benefícios ao consumidor.
Segundo Dyche Apud Computerworld (2013), o verdadeiro fascínio do big data para
os executivos é a promessa de inovação.
BIG DATA -
Aplicabilidades e Cases
Carolina
Cunha cita comos aplicabilidades mais comum do conceito big data: a geração de
informação para apoio na tomada de decisões, o maior
conhecimento do
comportamento do consumidor ou de determinado público e a identificação de
tendências.
Jefferson Stela afirma que:
"Não há uma indústria ou área específica que não se possa aplicar este
novo conceito. Basicamente, em todo lugar onde há informação, trabalhada de uma
forma criativa e estratégica, e que possa trazer um valor agregado como
objetivo final, terá credito na utilização de Big Data. Temos desde
casos complexos como a utilização na análise de sedimentos coletados no fundo
de oceanos identificados possíveis melhores pontos de perfuração de poços
petrolíferos, como na utilização de lojas que querem entender se um consumidor
que comprou um determinado produto pode ser o futuro consumidor de um outro
produto ou serviço específico."
Segundo a Hekima, as
soluções big data estão para os gestores modernos
como um radar está para um piloto de aeronave pois auxiliam a gerarem respostas
imediatas às mudanças.
O site da Hekima cita também muitas outras aplicabilidades do big data. Seguem algumas:
"O big
data pode ser usado para coibir fraudes em sistemas corporativos,
compreender o consumidor, identificar processos internos ineficientes, entre
outras funções. Porta de entrada para entender mudanças ainda mais profundas na
maneira como o ser humano se relaciona com a tecnologia, essa solução e suas
variáveis (como o Social Big Data, que trabalha exclusivamente com
mineração de dados em mídias sociais) é hoje a mais importante arma de
diferencial competitivo às empresas ousadas — independentemente do porte — e de
gestores modernos."
"Dados capturados de
redes sociais como LinkedIn, Facebook e Twitter,
por exemplo, podem trazer metadados que acrescentam informações adicionais
sobre os usuários, como geolocalização, o que permitie a um departamento de
marketing compreender de quais regiões surgem o maior percentual de hashtags de
engajamento. Essa percepção mais apurada possibilita direcionar diferentes
trabalhos de outbound marketing para mercados
consumidores específicos (garantindo retorno sobre o investimento muito mais
elevado do que o que seria alcançado em uma campanha feita ‘às cegas’)."
Para Emerson Alecrim, os
benefícios que o big data pode proporcionar com a geração
mais eficiente de informações são: geração
de produtos melhores, estratégias de marketing mais eficientes, redução de
gastos, melhoria no processo de produção, superação de concorrentes e
atendimento personalizado dos clientes.
Michael Slaby, diretor de inovação da campanha de reeleição de Barack Obama nos
EUA, conta como o big data foi utilizado na campanha de 2012:
"Campanha de Obama teve 35 milhões de pessoas na fan
page oficial do Facebook e 26 milhões de seguidores
no Twitter. [...] Hoje, a tecnologia desempenha um papel que não
permite que seja vista como um departamento apartado dentro de uma organização.
[...] Nossos voluntários foram capazes de se comunicar com mais pessoas,
fazendo bom uso de mídias e das funcionalidades das ferramentas. [...] Outro
pilar da campanha de Obama foi a estratégia de aplicar ferramentas de analytics,
usadas para medição, coleta, análise e produção de relatórios de dados. Parte
do sucesso deve-se à capacidade de apoiar a tomada de decisão em dados mais
abrangentes e precisos, um benefício inerente da arquitetura de integração. As
ferramentas de analytics passaram a trabalhar sobre uma base
integrada de informações e puderam correlacionar o que ocorria online e off-line.
[...] A mobilidade e a geolocalização acabam abrindo mais uma frente para as
disciplinas relacionadas a big data e analytics.
Há um velho adágio que diz que toda atividade política é local. Eu
acrescentaria que toda atividade política é pessoal. Precisamos usar os avanços
dessa tecnologia para interagir com cada vez mais gente e prover uma
experiência pessoal a cada um."
Cezar Tourion cita como
aplicabilidade para o conceito big
data a análise de fraudes com
o objetivo de minimizar os riscos e um case de uma empresa de fabricação de
semicondutores que monitora em tempo real o processo de detecção e
classificação de falhas possibilitando que os wafers defeituosos sejam reprocessados e
ajustes sejam feitos em tempo real nos próprios processos de fabricação.
Abaixo mais algumas aplicabilidades e cases do big data segundo Renna Setti:
- Geoprocessamento para
identificação de vagas de estacionamento e situação de navios atracados em
portos;
- Decifração da linguagem humana em redes sociais pela ONU para prever o
desemprego, a situação econômica e epidemias;
- Monitoramento de hábitos de consumo;
- Detecção da concentração de chips de celulares em ações humanitárias como
aconteceu no terremoto ocorrido no Haiti;
- Uso de monitoramento em tempo real de bebês pré-maturos no Canadá que
possibilitaram o cruzamento de dados e a antecipação de ações que salvaram a
vida de diversas crianças.
Cases de sucesso premiados
em 2013 pelo IDC Brazil BI & Big Data Conference segundo a Exame Info:
- Projeto Intelligere que tem como objetivo melhorar o
processo de aprendizagem e assegurar o sucesso do aluno em completar seu
percurso acadêmico no prazo definido e dentro dos parâmetros de qualidade
especificados. Isto é possível com aplicação de estudos analíticos aos
processos de aprendizagem, avaliação e acompanhamento da vida do aluno.
- Escritório de
Prioridades Estratégicas de Minas Gerais que disponibiliza informações da
gestão pública com o objetivo de conseguir desenvolver novas políticas públicas
com participação da população.
O Uber é mais um usuário do conceito Big
Data conforme informado pelo
site da Hekima.
"No minuto em que você clica no seu aplicativo, o big
data também está lá, dando suporte para que se ache um motorista nas
cidades onde está o serviço, cruzando os dados da carona mais próxima, tornando
o serviço mais ágil. Antes de você entrar no carro, os serviços de GPS já
cruzaram outros tantos dados de quilometragem, ruas, tarifas e tempo em um
algorítimo refinado, que determinam previamente o tempo estimado de viagem e
quanto ela custará. E se você mudar de ideia sobre o seu destino no meio do
trajeto, não tem problema. Em tempo real, o aplicativo refaz o caminho, vê as
condições de tráfego e você já está em um novo trajeto com um novo
preço.".
BIG DATA – Ética e Privacidade
O big
data cria um contexto em que as questões de privacidade precisam ser repensadas
pois ainda não há entendimento consolidado sobre a viabilidade ética de
replicação e uso de dados de algumas fontes.
Para a Hekima, esta discursão ficou em maior evidência quando os EUA revelaram
em 2013 que a Agência Nacional de Segurança dos Estados Unidos e o FBI possuíam
acesso direto aos servidores centrais das mais importantes empresas de internet
do mundo. Segundo o site, dados oriundos do Google, do Facebook, do Skype e do
Aol, por exemplo, eram totalmente monitorados pelas agências de inteligência
norte-americanas.
Mas o site da Hekima ressalta também que inúmeros juristas no Brasil e no
exterior defendem a idéia de que as informações inseridas em mídias sociais não
podem ser posteriormente reivindicadas como confidenciais porque já foram
expostas ao acesso livre.
Carolina Cunha (2015) discorda quando afirma que o Marco Civil da internet
regulamenta que a privacidade é um direito e uma condição para ‘o pleno exercício
do direito de acesso à internet’. Segundo ela, embora o usuário tenha direito à
inviolabilidade da intimidade e da vida privada, a facilidade de acesso às
informações públicas tornou mais frequente a coleta de informações particulares
sem autorização.
BIG DATA – Futuro
Para
Carlos Barbieri (2011), quando as empresas começam a se fundir, comprar ou
buscar parcerias com outras com o objetivo de dominar uma tecnologia específica
é sinal que esta tendência tecnológica está em evolução. Ele cita como exemplo
desta tendências o conceito big
data e analytics.
Feinberg em 2013, afirmou
que as empresas que tiverem a capacidade de predição serão recompensadas pois
conseguirão antecipar as necessidades e desejos dos clientes.
Cézar Tauron (2012) ressalta que o conceito big
data disponibiliza um novo
território com conhecimentos, experiências e expertise profissional que é inevitável para
os CIOs das empresas.
Jefferson Stela pontua que
o mercado global já movimenta mais de US$70 bilhões anuais em tecnologias do
conceito big data e que a tendência de crescimento supera o percentual de 40%
até 2016.
Mas Edson Cardoso informa que, conforme um estudo da Bain & Company, o
mercado de big data movimentará cerca de R$ 47 bilhões
em 2018. Segundo ele, este grande investimento será motivado pela capacidade de
garantir aos executivos tomadas de decisões até cinco vezes mais rápidas.
Para a Hekima, os
investimento com big data tende a crescer 6 vezes mais do
que o setor de TI em 2018 e Carolina Cunha (2015) faz uma previsão que o Brasil
movimentará US$ 965 milhões em 2018 nesta área.
A revista FEBRABAN, em
2014, ressaltou que a maior evolução desses serviços se dará com a computação
cognitiva ou deep learning,
isto é, quando as máquinas tiverem a capacidade de tomar
suas próprias decisões após auto aprendizagem.
BIG DATA – Aplicabilidade nas Instituições Financeiras
Segundo a
Revista FEBRABAN (2014), quando a frase em que dizia que os dados sabem bem
mais sobre nós do que nós mesmos surgiu em 2008, o conceito big data deixou de ser tratado apenas em
discussões acadêmicas para ganhar espaço também nas áreas de TI das grandes
instituições financeiras.
Abaixo algumas informações
que foram divulgadas na publicação anual do CIAB FEBRABAN 2012:
Tendências e prioridades na visão dos executivos de TI dos grandes bancos
brasileiros: