Como Será o Trabalho do Futuro?

O texto publicado originalmente no blog da DSA nos traz uma reflexão sobre o futuro das profissões, em especial a do Cientista de dados. Os últimos anos foram intensos para a Ciência de Dados e com base em tudo que vivemos até aqui é possível traçar um panorama sobre a Ciência de Dados nos próximos anos! Como Será o Trabalho do Cientista de Dados no Futuro?

O Que Vivemos Até Aqui?

Nos últimos 10 anos vimos uma verdadeira explosão na geração e utilização de dados. Com a presença de mais de metade da população do planeta na internet, a geração de dados cresceu de forma exponencial, surgindo assim o famoso termo Big Data, dados gerados em alto volume, alta variedade e alta velocidade. Percebeu-se que ao analisar essa montanha de dados, era possível coletar insights e fazer previsões com nível de precisão cada vez maior e dessa forma, a Ciência de Dados, impulsionada por Machine Learning e Inteligência Artificial, deu um salto e ganhou o mundo, promovendo o surgimento de diversas carreiras, tais como Cientista de Dados, Engenheiro de Dados, Engenheiro de Machine Learning, Engenheiro de IA, entre outras. As empresas iniciaram a corrida pelos dados e pelos profissionais capazes de extrair desse tesouro todo o valor que eles oferecem. Os dados se transformaram no novo petróleo fazendo com que as empresas adotassem uma cultura data-driven (orientada a dados).

E O Futuro? O Que nos Reserva?

Tudo que vimos até aqui ainda é considerado a ponta do iceberg. Muitos acreditam que ainda estamos na infância do Big Data e quando a Internet das Coisas (IoT) se tornar realidade, veremos um salto ainda maior na geração de dados e consequentemente um salto na necessidade de profissionais qualificados.

Algoritmos de Ciência de Dados cada vez mais complexos continuarão incluídos em pacotes e tecnologias que facilitam a implantação em ordens de magnitude. Considere como é a experiência de treinamento e implantação (em escala) de um algoritmo de Machine Learning hoje em comparação com dez anos atrás – suas ordens de magnitude são mais rápidas de aplicar, podem ser feitas com um maior grau de qualidade e com menos conhecimento técnico e estatístico. Essa é uma tendência comum em muitas áreas da Ciência de Dados.

A grande maioria das empresas ainda não descobriu os benefícios da adoção de Machine Learning, IA e técnicas relacionadas de maneiras que influenciam seus negócios. Mas à medida que a tecnologia evolui e se populariza, mais e mais empresas adotarão a Ciência de Dados como parte de suas estratégias. Não é difícil prever isso. Basta observar o uso da internet 10 anos atrás e hoje. Toda média e grande empresa e órgãos públicos tem algum tipo de estratégia que envolva a internet e o mesmo vai ocorrer com Data Science nos próximos anos. É inevitável.

omo Será o Trabalho do Cientista de Dados no Futuro?

Listamos 10 fatores que ajudam a explicar Como Será o Trabalho do Cientista de Dados no Futuro. Confira:

1- Por que os Cientistas de Dados serão inevitáveis no futuro?

Antes de discutirmos a resposta, vamos entender por que os Cientistas de Dados hoje em dia desfrutam de uma demanda tão grande no mercado. A resposta curta e simples é que, na última década, houve uma enorme explosão na quantidade de dados gerados e retidos pelas organizações, bem como pelas pessoas comuns.

Quase todas as empresas ou negócios hoje dependem fortemente de dados, dando origem a uma enorme demanda por Cientistas de Dados qualificados, além de outras funções relacionadas, principalmente de Engenheiro de Dados. E com mais e mais dados sendo capturados em todo o mundo, a demanda por conhecimento para extrair informações valiosas e acionáveis desses dados só aumentará. Investir em uma carreira em Ciência de Dados é uma decisão bastante inteligente.

E não apenas o Cientista de Dados tem um crescimento vertiginoso na demanda, mas diversas outras carreiras necessárias para compor uma equipe de Data Science…

Leia o restante na ÍNTEGRA no blog da Data Science Academy

Por que Cientistas de Dados escolhem Python?

A Ciência de Dados é algo que está em evidência hoje no mundo digital. Compondo um ranking das Top 10 profissões do futuro, a profissão de cientista de dados requer que o profissional tenha um conjunto de habilidades e conhecimentos para poder executar bem suas tarefas. Mas, por que a maioria dos cientistas de dados escolhem a linguagem PYTHON?

Python é uma linguagem de programação que foi concebida no final de 1980 e sua implementação foi iniciada em Dezembro de 1989 por Guido van Rossum no CWI na Holanda, como um sucessor para a linguagem de programação ABC capaz de manipulação de exceção e interface com o sistema operacional Amoeba . Van Rossum é o principal autor da linguagem Python e continua como líder nas decisões que envolvem o futuro da linguagem.

Recentemente o blog Ciência e Dados publicou matéria a respeito elencando os porquês dessa escolha por parte dos profissionais e futuros profissionais da área.

Por que os Cientistas de Dados preferem codificação em Python?

Perceba que este pode ser um tema polêmico. Outras linguagens de programação podem ser usadas para o mesmo fim e fatores muitas vezes pessoais estarão envolvidos nesta escolha. Mas aqui seguem algumas razões porque usar Python.

Grande comunidade – com Python, você pode encontrar uma grande (e crescente) Comunidade. No final do dia, se você se perder, pode contar com uma grande comunidade de especialistas para ajudá-lo a encontrar uma solução adequada para a codificação (mesmo em nichos específicos) além de respostas a perguntas relacionadas com a Ciência de Dados e Análise de Dados.

Crescente número de bibliotecas de análise de dados – Com Python, você pode encontrar uma grande variedade bibliotecas de Ciência de dados (como por exemplo: NumPy, SciPy, StatsModels, scikit-learn, pandas, etc.), que estão em crescimento exponencial. Restrições (em métodos de otimização / funções) que estavam faltando um ano atrás já não são um problema e você pode encontrar uma solução robusta adequada, que funciona de forma confiável.

Juypyter-Notebook – esta é simplesmente uma grande ferramenta. Você pode executar múltiplas linhas / blocos de código em diferentes células, você pode brincar com os dados, movê-los para cima ou para baixo e você ainda pode obter seus resultados logo abaixo da célula. É realmente como um organizador mágico que Cientistas de Dados (e as pessoas que executam código) sempre sonharam. Você também pode escrever em R, SQL, Scala, e outras linguagens com Jupyter-Notebook o que faz com que o fluxo de trabalho seja muito mais fácil e eficiente.

Leia na íntegra do blog Ciência e Dados (clicando aqui)

#PensandoEmDados [5] – ETL

No contexto de dados e seu ambiente onde se envolvem Data Warehouse (DW) e Business Intelligence (BI), o processo de Extrair e Tratar os dados é um processo comum, chamado de ETL. Esse processo é dividido em três etapas, em que cada uma delas possui grande importância para o sucesso da transição dos dados dos sistemas de origem para o DW.

Você sabe o que é ETL?

ETL é uma sigla que significa Extract, Transform, Load ou Extração, Transformação e Carga, em português. Para trabalharmos com dados, se faz necessário que esse processo seja realizado com as fontes de dados já bem definidas.

Ao acessar os dados na fonte, a extração é a primeira etapa, tratando-se da obtenção do dado.

A transformação é etapa onde limpamos e preparamos os dados para que ele esteja pronto para consultas com definição de tipos de dados, formatos, medidas e métricas a serem utilizadas nas visualizações.

A carga é a submissão dos dados a um repositório ou Data warehouse, local onde os dados estarão disponíveis para que consultas e visões diferentes dos mesmos possam ser disponibilizadas.

De forma geral, o ETL pode ser representado pela imagem abaixo:

ETL
Figura 1 – Processo de ETL. Autor: Diego Elias [ CanalTech, 2014]

O processo de ETL, por exemplo, é essencial para a criação das estruturas de Dimensões e Fatos no ambiente do DW. É ele que faz a “ponte” de ligação entre o operacional e o DW. Devemos escolher bem as ferramentas que darão suporte ao processo, pois são essenciais para a correta execução das atividades do ETL.

ELIAS, Diego [ CanalTech, 2014]

Em resumo, o processo de ETL é a forma como podemos interligar um sistema de análise de dados ou um novo repositório a fonte original de dados. Bancos de dados, Planilhas, arquivos em servidores e muitos outros formatos podem ser a fonte de dados e, desde que permitam o acesso de aplicações externas, permitirão que a Extração seja feita. Uma vez que essa primeira etapa tenha sido concluída com sucesso, a Transformação (ou tratamento) dos dados e a carga em sua nova estrutura de armazenamento concluem a integração de dados com sucesso.

Para acompanhar essas e outras postagens, me siga pelas redes sociais no Instagram como @profdanielbrandao e Facebook @professordanielbrandao. Em breve a série #PensandoEmDados estará em vídeo também no meu Canal do Youtube (inscreva-se).

Professores brasileiros realizam chamada por reconhecimento facial

Aplicativo com inteligência artificial usado como chamada foi criado em laboratório do IFES

Reconhecimento facial em escolas

Professores do Instituto Federal do Espírito Santo (Ifes) estão usando um novo método para realizar as chamadas dos alunos. Por meio do aplicativo IAmHere, que utiliza inteligência artificial, eles realizam as chamadas em sala de aula usando reconhecimento facial. A tecnologia assegura o controle de presença com mais rigidez e reduz o tempo para verificar quais alunos assistiram à aula.

aplicativo foi desenvolvido pelo Laboratório de Extensão em Desenvolvimento de Soluções (Leds) do Ifes, Campus Serra. Ele foi pensado por professores do próprio laboratório e desenvolvido por quatro alunos do curso de graduação em Sistemas de Informação e do curso técnico em Informática. O app está em uso no instituto desde abril deste ano. 

Como funciona? 

O cadastro dos alunos pode ser feito tanto com uma foto coletiva quanto individual. Alunos e professores podem cadastrá-las no aplicativo, que requer apenas o nome e o número de matrícula do estudante. A partir das fotos que são inseridas, o sistema é treinado para reconhecer as faces dos jovens.

Durante as chamadas, os professores abrem o aplicativo e pedem para os alunos olharem para a câmera de seu celular. Ao tirar uma foto da turma, o app identifica a face dos alunos presentes e as compara com as imagens cadastradas no sistema. Após confirmar a presença, os estudantes recebem uma notificação em seus telefones que ratificam o registro do comparecimento. 

FONTE: Olhar Digital/A Gazeta

#PensandoEmDados [4] – Integração de dados

Integração de dados é combinação de processos técnicos e de negócios utilizados para combinar dados de…

Integrar dados é unificar diferentes bases

A busca por informações sobre qualquer assunto requer dados íntegros e confiáveis. É de interesse de todos que dados verdadeiros e completos sejam recolhidos para uma análise, seja para um relatório mensal/semestral de uma instituição ou o resultado de uma busca na internet. A fonte dos dados é de vital importância nesse aspecto e, por isso, integração de dados é tema recorrente nas pesquisas, artigos e nos estudos sobre DADOS.

O termo INTEGRAÇÃO vem justamente de integrar, tornar íntegro, formando um conjunto de dados a partir de fontes e origens distintas. A IBM é uma gigante da área de computação e de lidar com dados. Em seu site oficial, ela nos traz a seguinte definição:

“A integração de dados é a combinação de processos técnicos e de negócios utilizados para combinar dados de fontes distintas em informações valiosas e relevantes através de um software de integração.”

IBM, 2018

Diversas empresas e organizações passaram a criar mecanismos para que diferentes tipos de dados pudessem ter uma conexão, principalmente após o termo Big Data ficar em evidencia. Empresas como a Microsoft, Oracle, Amazon e a própria IBM tem criado grupos de trabalho e pesquisa e com isso temos hoje diversas formas de realizar essa integração e análise de dados de maneira rápida, com baixo custo e com uso de inteligência artificial no processo.

Apache Hadoop

Hadoop é uma plataforma da Apache Foundation criada para computação distribuída. Ou seja, é um sistema que consegue unificar várias máquinas (computadores) que passam a ser enxergados como um só. Com ele, trabalhar com processamento de dados em grandes volumes a tarefa passa a ser menos penosa. Além do Hadoop, a Apache se destaca de várias formas com produtos que atendem a diversas demandas voltadas a dados. Por ser uma fundação, não tem necessariamente fins lucrativos, o que torna o uso de seus sistemas práticos para diversos projetos, sejam eles públicos ou privados.

Com ferramentas com essa, é possível receber dados vindos de um banco de dados Relacional, outro de um banco Não Relacional, de um .TXT ou .CSV, uma planilha ou de diversos outros sistemas, conecta-los entre si e criar visualizações a partir dessa unificação.

Em resumo, integração de dados é preciso para que possamos ter a consolidação da informação e, com isso, a geração de conhecimento acerca de um ou de vários tipos de dados.

#PensandoEmDados [3] – Armazenando dados

Como você deve saber, os dados são passíveis de serem coletados de várias maneiras. Sensores, formulários, bases de dados, câmeras e variados sistemas, em conjunto ou separadamente, podem ser usados como coletores de dados. Mas, você já se perguntou onde SEUS DADOS são ARMAZENADOS?

Armazenando dados

Se você já tem conhecimento na área de sistemas e desenvolvimento, sabe que o meio mais tradicional de armazenamento de dados são os Bancos de dados (BD). Os BDs são bases que contém uma estrutura e regras para armazenagem de dados em formatos geralmente pré-estabelecidos, utilizando SGBDs (Sistemas Gerenciadores de Banco de Dados). Os modelos de bancos de dados mais tradicionais e ainda grandemente utilizados são os bancos de dados Relacionais.

O termo RELACIONAL vem do conceito matemático de relações, onde um dado conjunto A pode se relacionar com um B, que por sua vez pode ser relacionado a um C. O conceito de “estar contido” ou “não estar contido” te remete a alguma coisa? Pois é, esse princípio matemático define o que seriam os relacionamentos.

Os BDs relacionais são baseados em TABELAS, que possuem um nome e colunas que definem que tipo de dado será guardado. Os tipos de dados a serem armazenados devem ser definidos na criação da tabela e cada campo da tabela terá um tipo específico de dado, como: String (caracteres), Double/Float/Integer (tipos numéricos), Boolean (tipo booleano), Data/Datatime/TimeStamp (tipos que armazenam data e/ou data e hora), entre outros.

Dos bancos relacionais no mercado, se destacam os robustos ORACLE, SQL SERVER (da Microsoft), BD2 (da IBM) como Bancos proprietários (pagos). Para os gratuitos temos  POSTGRESQL e MySQL (pertencente a Oracle mas com a versão MariaDB gratuita).

Outros tipos de Bases de dados

Existem outros tipos de bancos de dados além dos relacionais. Um dos que está em maior crescimento são os NoSQL (acrônimo para Não Apenas SQL), também conhecidos por Bancos Não Relacionais. Os NoSQL dividem-se basicamente em 4 modelos: Documentos, Grafos, Colunas e Chave-valor [baseado em Amazon, 2018]. O modelo que tem tido maior volume de utilizadores é o baseado em Documentos, dentre eles se destaca o MongoDB.

Além de um banco de dados e seu SGBD, os dados podem ser armazenados em arquivos de texto, planilhas ou em bancos de dados de outro tipo como Objeto-Relacional, Hierárquico, Rede, etc.

De um modo geral, armazenar dados pode ser feito de diversas maneiras e, com isso, sistemas heterogêneos podem ser criados. Para poder gerenciar essa gama de dados vindos e armazenados em distintos formatos, temos o importante papel da INTEGRAÇÃO DE DADOS, tema de nossa próxima postagem. Até lá!

Siga-me nas redes sociais:

5 cursos online gratuitos da USP com foco em Python, Big Data e UX

Para aqueles que estão buscando renovar a carreira em TI ou mesmo começar um curso para trabalhar na área, há uma série de opções online – e gratuitas. A Universidade de São Paulo (USP), por exemplo, disponibiliza cursos online com foco em tecnologia da informação (TI), ciência da computação, Big Data e outros temas relacionados.

Entre as opções está o curso de linguagem Phyton, que ensina noções básicas da linguagem de programação para que o usuário desenvolva pequenos programas nessa linguagem. Segundo a instituição, “o objetivo principal é desenvolver o raciocínio aplicado à formulação e resolução de problemas computacionais”. Ao término do aprendizado, o aluno pode cursar a segunda parte do curso voltado à programação em Phyton.

Outro módulo disponível é a introdução ao Big Data, voltado para usuários “que desejam entender de forma fácil o que é Big Data, conhecer algumas tecnologias de Big Data, ter acesso a algumas aplicações de Analytics, Internet das Coisas – IOT e de Big Data”. O usuário também é inserido em um projeto de conclusão do curso, que consiste em um projeto de Big Data elaborado com estratégias e análises de dados.

Os cursos não possuem pré-requisitos – basta apenas completar um cadastro na plataforma Coursera, que também é gratuita -, nem experiência prévia em programação. A única “cobrança” é que o aluno domine conceitos básicos de matemática do ensino fundamental. Além disso, cada módulo leve em média 31 horas para ser completado, porém esse tempo é amplamente dividido em diversas subcategorias.

Clique nos links abaixo para acessar os cursos gratuitos da USP:

Introdução à Ciência da Computação com Python Parte 1

Introdução à Ciência da Computação com Python Parte 2

Introdução ao Teste de Software

Introdução ao Big Data

UX / UI: Fundamentos para o design de interface

Fonte: Computer World