Como Será o Trabalho do Futuro?

O texto publicado originalmente no blog da DSA nos traz uma reflexão sobre o futuro das profissões, em especial a do Cientista de dados. Os últimos anos foram intensos para a Ciência de Dados e com base em tudo que vivemos até aqui é possível traçar um panorama sobre a Ciência de Dados nos próximos anos! Como Será o Trabalho do Cientista de Dados no Futuro?

O Que Vivemos Até Aqui?

Nos últimos 10 anos vimos uma verdadeira explosão na geração e utilização de dados. Com a presença de mais de metade da população do planeta na internet, a geração de dados cresceu de forma exponencial, surgindo assim o famoso termo Big Data, dados gerados em alto volume, alta variedade e alta velocidade. Percebeu-se que ao analisar essa montanha de dados, era possível coletar insights e fazer previsões com nível de precisão cada vez maior e dessa forma, a Ciência de Dados, impulsionada por Machine Learning e Inteligência Artificial, deu um salto e ganhou o mundo, promovendo o surgimento de diversas carreiras, tais como Cientista de Dados, Engenheiro de Dados, Engenheiro de Machine Learning, Engenheiro de IA, entre outras. As empresas iniciaram a corrida pelos dados e pelos profissionais capazes de extrair desse tesouro todo o valor que eles oferecem. Os dados se transformaram no novo petróleo fazendo com que as empresas adotassem uma cultura data-driven (orientada a dados).

E O Futuro? O Que nos Reserva?

Tudo que vimos até aqui ainda é considerado a ponta do iceberg. Muitos acreditam que ainda estamos na infância do Big Data e quando a Internet das Coisas (IoT) se tornar realidade, veremos um salto ainda maior na geração de dados e consequentemente um salto na necessidade de profissionais qualificados.

Algoritmos de Ciência de Dados cada vez mais complexos continuarão incluídos em pacotes e tecnologias que facilitam a implantação em ordens de magnitude. Considere como é a experiência de treinamento e implantação (em escala) de um algoritmo de Machine Learning hoje em comparação com dez anos atrás – suas ordens de magnitude são mais rápidas de aplicar, podem ser feitas com um maior grau de qualidade e com menos conhecimento técnico e estatístico. Essa é uma tendência comum em muitas áreas da Ciência de Dados.

A grande maioria das empresas ainda não descobriu os benefícios da adoção de Machine Learning, IA e técnicas relacionadas de maneiras que influenciam seus negócios. Mas à medida que a tecnologia evolui e se populariza, mais e mais empresas adotarão a Ciência de Dados como parte de suas estratégias. Não é difícil prever isso. Basta observar o uso da internet 10 anos atrás e hoje. Toda média e grande empresa e órgãos públicos tem algum tipo de estratégia que envolva a internet e o mesmo vai ocorrer com Data Science nos próximos anos. É inevitável.

omo Será o Trabalho do Cientista de Dados no Futuro?

Listamos 10 fatores que ajudam a explicar Como Será o Trabalho do Cientista de Dados no Futuro. Confira:

1- Por que os Cientistas de Dados serão inevitáveis no futuro?

Antes de discutirmos a resposta, vamos entender por que os Cientistas de Dados hoje em dia desfrutam de uma demanda tão grande no mercado. A resposta curta e simples é que, na última década, houve uma enorme explosão na quantidade de dados gerados e retidos pelas organizações, bem como pelas pessoas comuns.

Quase todas as empresas ou negócios hoje dependem fortemente de dados, dando origem a uma enorme demanda por Cientistas de Dados qualificados, além de outras funções relacionadas, principalmente de Engenheiro de Dados. E com mais e mais dados sendo capturados em todo o mundo, a demanda por conhecimento para extrair informações valiosas e acionáveis desses dados só aumentará. Investir em uma carreira em Ciência de Dados é uma decisão bastante inteligente.

E não apenas o Cientista de Dados tem um crescimento vertiginoso na demanda, mas diversas outras carreiras necessárias para compor uma equipe de Data Science…

Leia o restante na ÍNTEGRA no blog da Data Science Academy

Por que Cientistas de Dados escolhem Python?

A Ciência de Dados é algo que está em evidência hoje no mundo digital. Compondo um ranking das Top 10 profissões do futuro, a profissão de cientista de dados requer que o profissional tenha um conjunto de habilidades e conhecimentos para poder executar bem suas tarefas. Mas, por que a maioria dos cientistas de dados escolhem a linguagem PYTHON?

Python é uma linguagem de programação que foi concebida no final de 1980 e sua implementação foi iniciada em Dezembro de 1989 por Guido van Rossum no CWI na Holanda, como um sucessor para a linguagem de programação ABC capaz de manipulação de exceção e interface com o sistema operacional Amoeba . Van Rossum é o principal autor da linguagem Python e continua como líder nas decisões que envolvem o futuro da linguagem.

Recentemente o blog Ciência e Dados publicou matéria a respeito elencando os porquês dessa escolha por parte dos profissionais e futuros profissionais da área.

Por que os Cientistas de Dados preferem codificação em Python?

Perceba que este pode ser um tema polêmico. Outras linguagens de programação podem ser usadas para o mesmo fim e fatores muitas vezes pessoais estarão envolvidos nesta escolha. Mas aqui seguem algumas razões porque usar Python.

Grande comunidade – com Python, você pode encontrar uma grande (e crescente) Comunidade. No final do dia, se você se perder, pode contar com uma grande comunidade de especialistas para ajudá-lo a encontrar uma solução adequada para a codificação (mesmo em nichos específicos) além de respostas a perguntas relacionadas com a Ciência de Dados e Análise de Dados.

Crescente número de bibliotecas de análise de dados – Com Python, você pode encontrar uma grande variedade bibliotecas de Ciência de dados (como por exemplo: NumPy, SciPy, StatsModels, scikit-learn, pandas, etc.), que estão em crescimento exponencial. Restrições (em métodos de otimização / funções) que estavam faltando um ano atrás já não são um problema e você pode encontrar uma solução robusta adequada, que funciona de forma confiável.

Juypyter-Notebook – esta é simplesmente uma grande ferramenta. Você pode executar múltiplas linhas / blocos de código em diferentes células, você pode brincar com os dados, movê-los para cima ou para baixo e você ainda pode obter seus resultados logo abaixo da célula. É realmente como um organizador mágico que Cientistas de Dados (e as pessoas que executam código) sempre sonharam. Você também pode escrever em R, SQL, Scala, e outras linguagens com Jupyter-Notebook o que faz com que o fluxo de trabalho seja muito mais fácil e eficiente.

Leia na íntegra do blog Ciência e Dados (clicando aqui)

5 VERDADES SOBRE O EXCEL

Trabalhar com planilhas é uma das formas de melhorar a produtividade na hora de resumir informações e gerar relatórios do dia a dia. O Excel traz consigo uma gama de funcionalidades que ajudam nesse aumento da produção de qualquer profissional. Por isso, trago algumas verdades sobre o uso do Excel na prática.

Verdade nº 1 – Tudo em um!

Ao mesmo tempo que você pode criar uma planilha para controlar dados como o horário dos funcionários, agenda de eventos e compromissos, controle financeiro de contas a pagar e receber, por exemplo, você pode criar planilhas com todas essas funcionalidades dentro de um mesmo arquivo.
O Excel cria arquivos como pastas, por isso chamamos cada arquivo de pasta de trabalho. Nesta pasta é possível arquivar várias planilhas, tendo elas alguma conexão ou não. Caso você lide com vários dados por dia, pode concentrar esses dados em um mesmo arquivo, contendo N diferentes planilhas, desde que bem organizadas para não se perder com tanta informação.

Verdade nº 2 – O Excel ensina

É possível aprender muito do uso do Excel com a própria interface dele. Assim como os demais programas do pacote Office, ao parar o ponteiro do mouse sobre um item na tela, o Excel dá uma pequena explicação sobre para que serve aquilo. Outra grande funcionalidade, é que o uso de fórmulas também é sugerido, ou seja, quando você clica em uma célula e digita o sinal de igual = o programa sugere as fórmulas e te diz para que serve e também a estrutura (sintaxe) de cada fórmula.

Verdade nº 3 – Atalhos para tudo!

Outra grande vantagem do Excel são seus atalhos. Funcionalidades como ir para a última linha ou coluna, selecionar todas as células com dados apenas, inserir alguma nova informação e etc, tudo pode ser feito com ATALHOS! Utilizando as teclas CTRL (Control), Shift e Alt, muitas portas se abrem para você. (saiba mais sobre atalhos clicando aqui – link para postagem sobre atalhos).

Verdade nº 4 – Salve-me!

Com a nova versão do pacote Office (com a licença do Office 365), as versões a partir do Office 2016 estão habilitando a opção de salvamento automático. Com essa opção acionada, você não precisa mais se preocupar em ficar clicando CTRL + B para salvar. Porém, cuidado. Se você tiver a intenção de abrir um arquivo para alterá-lo, lembre-se que toda alteração será salva, e os dados originais serão perdidos caso não seja feita uma cópia (o que é sempre indicado).

Salvamento automático do Excel – Foto: Reprodução/ Daniel Brandão.

Verdade nº 5 – Online e Offline

É possível começar a editar uma planilha em seu computador, mesmo não estando online, e posteriormente terminar de editar na versão online do Excel. Essa funcionalidade também garante que você possa compartilhar o arquivo com outras pessoas para que ambos possam trabalhar colaborativamente no mesmo arquivo. Lembrando que uma pasta de trabalho compartilhada garante acesso a todos os conectados a ela, logo, qualquer um dos envolvidos pode alterar os dados nela e com isso os valores originais podem ser perdidos. (OBS: é possível compartilhar uma planilha apenas para visualização, não permitindo a edição por parte de quem recebe).

Verdades claras

Talvez você já soubesse dessas ou de algumas das verdades citadas, mas é sempre bom lembrar como o Excel trabalha de forma a auxiliar na produtividade de pessoas e profissionais em seu dia a dia.


Quer receber em primeira mão conteúdos como este, além de dicas, e-books de Excel? Deixe um comentário abaixo dizendo

EU QUERO!

Fixando célula em uma fórmula no Excel

Como fixar o valor de uma célula em uma fórmula no EXCEL?

Essa dica vai para quem quer realizar cálculos em várias células diferentes mas se baseando em um mesmo valor.

No Exemplo da imagem, estamos calculando quantos porcento cada Total (coluna E) representa do total de vendas feitas em um período. Para chegar nesse valor, dividimos o TOTAL de cada produto (coluna E) pelo TOTAL VENDA(célula E6).

Ao utilizarmos o símbolo de cifrão ($) antes do valor de uma célula, fixamos o valor dela, podendo, assim, arrastar a fórmula para uma outra célula. No nosso exemplo, a fórmula da célula F2 é a divisão do valor da célula E2 com o total do somatório dos produtos vendidos (célula E6).

Logo, esse $ faz toda a diferença, fazendo com que você possa aplicar a fórmula na célula F2 e depois arrastando ela para as demais abaixo (de F3 até F5 e além).

GOSTOU DA DICA? FICOU NA DÚVIDA? DEIXE SEU COMENTÁRIO ABAIXO.

#PensandoEmDados [5] – ETL

No contexto de dados e seu ambiente onde se envolvem Data Warehouse (DW) e Business Intelligence (BI), o processo de Extrair e Tratar os dados é um processo comum, chamado de ETL. Esse processo é dividido em três etapas, em que cada uma delas possui grande importância para o sucesso da transição dos dados dos sistemas de origem para o DW.

Você sabe o que é ETL?

ETL é uma sigla que significa Extract, Transform, Load ou Extração, Transformação e Carga, em português. Para trabalharmos com dados, se faz necessário que esse processo seja realizado com as fontes de dados já bem definidas.

Ao acessar os dados na fonte, a extração é a primeira etapa, tratando-se da obtenção do dado.

A transformação é etapa onde limpamos e preparamos os dados para que ele esteja pronto para consultas com definição de tipos de dados, formatos, medidas e métricas a serem utilizadas nas visualizações.

A carga é a submissão dos dados a um repositório ou Data warehouse, local onde os dados estarão disponíveis para que consultas e visões diferentes dos mesmos possam ser disponibilizadas.

De forma geral, o ETL pode ser representado pela imagem abaixo:

ETL
Figura 1 – Processo de ETL. Autor: Diego Elias [ CanalTech, 2014]

O processo de ETL, por exemplo, é essencial para a criação das estruturas de Dimensões e Fatos no ambiente do DW. É ele que faz a “ponte” de ligação entre o operacional e o DW. Devemos escolher bem as ferramentas que darão suporte ao processo, pois são essenciais para a correta execução das atividades do ETL.

ELIAS, Diego [ CanalTech, 2014]

Em resumo, o processo de ETL é a forma como podemos interligar um sistema de análise de dados ou um novo repositório a fonte original de dados. Bancos de dados, Planilhas, arquivos em servidores e muitos outros formatos podem ser a fonte de dados e, desde que permitam o acesso de aplicações externas, permitirão que a Extração seja feita. Uma vez que essa primeira etapa tenha sido concluída com sucesso, a Transformação (ou tratamento) dos dados e a carga em sua nova estrutura de armazenamento concluem a integração de dados com sucesso.

Para acompanhar essas e outras postagens, me siga pelas redes sociais no Instagram como @profdanielbrandao e Facebook @professordanielbrandao. Em breve a série #PensandoEmDados estará em vídeo também no meu Canal do Youtube (inscreva-se).

Professores brasileiros realizam chamada por reconhecimento facial

Aplicativo com inteligência artificial usado como chamada foi criado em laboratório do IFES

Reconhecimento facial em escolas

Professores do Instituto Federal do Espírito Santo (Ifes) estão usando um novo método para realizar as chamadas dos alunos. Por meio do aplicativo IAmHere, que utiliza inteligência artificial, eles realizam as chamadas em sala de aula usando reconhecimento facial. A tecnologia assegura o controle de presença com mais rigidez e reduz o tempo para verificar quais alunos assistiram à aula.

aplicativo foi desenvolvido pelo Laboratório de Extensão em Desenvolvimento de Soluções (Leds) do Ifes, Campus Serra. Ele foi pensado por professores do próprio laboratório e desenvolvido por quatro alunos do curso de graduação em Sistemas de Informação e do curso técnico em Informática. O app está em uso no instituto desde abril deste ano. 

Como funciona? 

O cadastro dos alunos pode ser feito tanto com uma foto coletiva quanto individual. Alunos e professores podem cadastrá-las no aplicativo, que requer apenas o nome e o número de matrícula do estudante. A partir das fotos que são inseridas, o sistema é treinado para reconhecer as faces dos jovens.

Durante as chamadas, os professores abrem o aplicativo e pedem para os alunos olharem para a câmera de seu celular. Ao tirar uma foto da turma, o app identifica a face dos alunos presentes e as compara com as imagens cadastradas no sistema. Após confirmar a presença, os estudantes recebem uma notificação em seus telefones que ratificam o registro do comparecimento. 

FONTE: Olhar Digital/A Gazeta

#PensandoEmDados [4] – Integração de dados

Integração de dados é combinação de processos técnicos e de negócios utilizados para combinar dados de…

Integrar dados é unificar diferentes bases

A busca por informações sobre qualquer assunto requer dados íntegros e confiáveis. É de interesse de todos que dados verdadeiros e completos sejam recolhidos para uma análise, seja para um relatório mensal/semestral de uma instituição ou o resultado de uma busca na internet. A fonte dos dados é de vital importância nesse aspecto e, por isso, integração de dados é tema recorrente nas pesquisas, artigos e nos estudos sobre DADOS.

O termo INTEGRAÇÃO vem justamente de integrar, tornar íntegro, formando um conjunto de dados a partir de fontes e origens distintas. A IBM é uma gigante da área de computação e de lidar com dados. Em seu site oficial, ela nos traz a seguinte definição:

“A integração de dados é a combinação de processos técnicos e de negócios utilizados para combinar dados de fontes distintas em informações valiosas e relevantes através de um software de integração.”

IBM, 2018

Diversas empresas e organizações passaram a criar mecanismos para que diferentes tipos de dados pudessem ter uma conexão, principalmente após o termo Big Data ficar em evidencia. Empresas como a Microsoft, Oracle, Amazon e a própria IBM tem criado grupos de trabalho e pesquisa e com isso temos hoje diversas formas de realizar essa integração e análise de dados de maneira rápida, com baixo custo e com uso de inteligência artificial no processo.

Apache Hadoop

Hadoop é uma plataforma da Apache Foundation criada para computação distribuída. Ou seja, é um sistema que consegue unificar várias máquinas (computadores) que passam a ser enxergados como um só. Com ele, trabalhar com processamento de dados em grandes volumes a tarefa passa a ser menos penosa. Além do Hadoop, a Apache se destaca de várias formas com produtos que atendem a diversas demandas voltadas a dados. Por ser uma fundação, não tem necessariamente fins lucrativos, o que torna o uso de seus sistemas práticos para diversos projetos, sejam eles públicos ou privados.

Com ferramentas com essa, é possível receber dados vindos de um banco de dados Relacional, outro de um banco Não Relacional, de um .TXT ou .CSV, uma planilha ou de diversos outros sistemas, conecta-los entre si e criar visualizações a partir dessa unificação.

Em resumo, integração de dados é preciso para que possamos ter a consolidação da informação e, com isso, a geração de conhecimento acerca de um ou de vários tipos de dados.