É cada vez mais frequente ouvirmos nas notícias palavras como Big Data, Machine Learning e Inteligência Artificial. Todas estas pertencem ao fenómeno que surgiu na última década como fruto da digitalização da atividade humana nas áreas pessoais, pública e comercial. Mudando, assim, a própria sociedade e o seu próprio funcionamento.

Cada vez que fazemos uma transação financeira, que publicamos nas redes sociais, pesquisamos algo num navegador da web ou registamos a nossa atividade física num dispositivo wearable, estamos a deixar uma pegada digital que é armazenada algures em forma de dados. A análise desses dados pode revelar-nos informação sobre os nossos hábitos, situação ou intenção de compra… e muito mais.

Se a isto juntarmos o crescente aumento de smartphones, wearables, dispositivos domóticos e sistemas de IoT, teremos uma vaga de dados difícil, se não mesmo impossível, de processar através dos meios convencionais. Há décadas que algumas empresas armazenam os seus dados com a esperança de os poder usar no futuro, quando a tecnologia assim o permitisse.

Deu-se início ao processamento desses dados em grandes computadores de elevado custo, criados especialmente para o efeito, e que rapidamente se tornavam obsoletos devido ao aumento do volume e da velocidade a que se geravam esses dados. Naturalmente, estes computadores estavam apenas ao alcance de grandes companhias com muitos recursos. Mas a computação distribuída mudou tudo isso.

Grupos de computadores convencionais conectados, e a trabalhar em uníssono, podiam ultrapassar a capacidade dos dispendiosos super-computadores, democratizando, assim, o tratamento de dados, que emergia graças às enormes quantidades de dados provenientes das redes sociais e dos smartphones. A partir daí, o aparecimento de diferentes tecnologias para poder manusear estes dados extraindo-os, armazenando-os e analisando-os não parou de crescer e de se aperfeiçoar.

Hoje em dia a extração, transformação e carregamento destes dados põe à disposição de governos e empresas a possibilidade de obter informação e gerar conhecimento. Este conhecimento é usado em todas as áreas: económica, médica, social e até mesmo ambiental. Permite-nos tomar melhores decisões, melhorar os processos tornando-os mais eficientes e prever, com elevada probabilidade de acertar, o comportamento de diferentes sistemas: a bolsa, deteção de problemas de saúde, comportamento de compradores, consumo / geração de energia, e até mesmo prever movimentos migratórios de aves.

Mas além das vantagens dadas pela ciência dos dados, temos muitos outros desafios que vão para lá do tecnológico, e que se enquadram no deontológico. É ético usar o algoritmo que desenvolvo se tiver um viés que resulte em desigualdades? Até que ponto o uso dos meus dados representa uma invasão da minha privacidade? Estão a ser violados os meus direitos em algum caso? O escândalo de Cambridge Analítica deixou à vista os perigos que representa a má utilização da análise de dados. Esta e outras questões são tratadas no livro “Armas de destruição matemática” de Cathy O’Neil, para quem quiser aprofundar o tema. Também pode saber mais sobre o assunto em documentários como Citizenfour, ou The Great Hack, que falam dos casos Snowden e Cambridge Analítica.

Dizem que “os dados são o novo petróleo”. Então criar um marco que garanta o crescimento, o investimento e a investigação em inteligência artificial, ao mesmo tempo que se protegem os direitos e a liberdade dos cidadãos, é o verdadeiro grande desafio das autoridades europeias. Está em jogo a luta pela liderança no desenvolvimento da inteligência artificial, e a perda de oportunidades que poderia ocorrer pela falta de uma estratégia comunitária em matéria de Big Data e inteligência artificial poderia mandar-nos para o fim da fila, com consequências desastrosas para a nossa economia.