Como Será o Trabalho do Futuro?

O texto publicado originalmente no blog da DSA nos traz uma reflexão sobre o futuro das profissões, em especial a do Cientista de dados. Os últimos anos foram intensos para a Ciência de Dados e com base em tudo que vivemos até aqui é possível traçar um panorama sobre a Ciência de Dados nos próximos anos! Como Será o Trabalho do Cientista de Dados no Futuro?

O Que Vivemos Até Aqui?

Nos últimos 10 anos vimos uma verdadeira explosão na geração e utilização de dados. Com a presença de mais de metade da população do planeta na internet, a geração de dados cresceu de forma exponencial, surgindo assim o famoso termo Big Data, dados gerados em alto volume, alta variedade e alta velocidade. Percebeu-se que ao analisar essa montanha de dados, era possível coletar insights e fazer previsões com nível de precisão cada vez maior e dessa forma, a Ciência de Dados, impulsionada por Machine Learning e Inteligência Artificial, deu um salto e ganhou o mundo, promovendo o surgimento de diversas carreiras, tais como Cientista de Dados, Engenheiro de Dados, Engenheiro de Machine Learning, Engenheiro de IA, entre outras. As empresas iniciaram a corrida pelos dados e pelos profissionais capazes de extrair desse tesouro todo o valor que eles oferecem. Os dados se transformaram no novo petróleo fazendo com que as empresas adotassem uma cultura data-driven (orientada a dados).

E O Futuro? O Que nos Reserva?

Tudo que vimos até aqui ainda é considerado a ponta do iceberg. Muitos acreditam que ainda estamos na infância do Big Data e quando a Internet das Coisas (IoT) se tornar realidade, veremos um salto ainda maior na geração de dados e consequentemente um salto na necessidade de profissionais qualificados.

Algoritmos de Ciência de Dados cada vez mais complexos continuarão incluídos em pacotes e tecnologias que facilitam a implantação em ordens de magnitude. Considere como é a experiência de treinamento e implantação (em escala) de um algoritmo de Machine Learning hoje em comparação com dez anos atrás – suas ordens de magnitude são mais rápidas de aplicar, podem ser feitas com um maior grau de qualidade e com menos conhecimento técnico e estatístico. Essa é uma tendência comum em muitas áreas da Ciência de Dados.

A grande maioria das empresas ainda não descobriu os benefícios da adoção de Machine Learning, IA e técnicas relacionadas de maneiras que influenciam seus negócios. Mas à medida que a tecnologia evolui e se populariza, mais e mais empresas adotarão a Ciência de Dados como parte de suas estratégias. Não é difícil prever isso. Basta observar o uso da internet 10 anos atrás e hoje. Toda média e grande empresa e órgãos públicos tem algum tipo de estratégia que envolva a internet e o mesmo vai ocorrer com Data Science nos próximos anos. É inevitável.

omo Será o Trabalho do Cientista de Dados no Futuro?

Listamos 10 fatores que ajudam a explicar Como Será o Trabalho do Cientista de Dados no Futuro. Confira:

1- Por que os Cientistas de Dados serão inevitáveis no futuro?

Antes de discutirmos a resposta, vamos entender por que os Cientistas de Dados hoje em dia desfrutam de uma demanda tão grande no mercado. A resposta curta e simples é que, na última década, houve uma enorme explosão na quantidade de dados gerados e retidos pelas organizações, bem como pelas pessoas comuns.

Quase todas as empresas ou negócios hoje dependem fortemente de dados, dando origem a uma enorme demanda por Cientistas de Dados qualificados, além de outras funções relacionadas, principalmente de Engenheiro de Dados. E com mais e mais dados sendo capturados em todo o mundo, a demanda por conhecimento para extrair informações valiosas e acionáveis desses dados só aumentará. Investir em uma carreira em Ciência de Dados é uma decisão bastante inteligente.

E não apenas o Cientista de Dados tem um crescimento vertiginoso na demanda, mas diversas outras carreiras necessárias para compor uma equipe de Data Science…

Leia o restante na ÍNTEGRA no blog da Data Science Academy

Por que Cientistas de Dados escolhem Python?

A Ciência de Dados é algo que está em evidência hoje no mundo digital. Compondo um ranking das Top 10 profissões do futuro, a profissão de cientista de dados requer que o profissional tenha um conjunto de habilidades e conhecimentos para poder executar bem suas tarefas. Mas, por que a maioria dos cientistas de dados escolhem a linguagem PYTHON?

Python é uma linguagem de programação que foi concebida no final de 1980 e sua implementação foi iniciada em Dezembro de 1989 por Guido van Rossum no CWI na Holanda, como um sucessor para a linguagem de programação ABC capaz de manipulação de exceção e interface com o sistema operacional Amoeba . Van Rossum é o principal autor da linguagem Python e continua como líder nas decisões que envolvem o futuro da linguagem.

Recentemente o blog Ciência e Dados publicou matéria a respeito elencando os porquês dessa escolha por parte dos profissionais e futuros profissionais da área.

Por que os Cientistas de Dados preferem codificação em Python?

Perceba que este pode ser um tema polêmico. Outras linguagens de programação podem ser usadas para o mesmo fim e fatores muitas vezes pessoais estarão envolvidos nesta escolha. Mas aqui seguem algumas razões porque usar Python.

Grande comunidade – com Python, você pode encontrar uma grande (e crescente) Comunidade. No final do dia, se você se perder, pode contar com uma grande comunidade de especialistas para ajudá-lo a encontrar uma solução adequada para a codificação (mesmo em nichos específicos) além de respostas a perguntas relacionadas com a Ciência de Dados e Análise de Dados.

Crescente número de bibliotecas de análise de dados – Com Python, você pode encontrar uma grande variedade bibliotecas de Ciência de dados (como por exemplo: NumPy, SciPy, StatsModels, scikit-learn, pandas, etc.), que estão em crescimento exponencial. Restrições (em métodos de otimização / funções) que estavam faltando um ano atrás já não são um problema e você pode encontrar uma solução robusta adequada, que funciona de forma confiável.

Juypyter-Notebook – esta é simplesmente uma grande ferramenta. Você pode executar múltiplas linhas / blocos de código em diferentes células, você pode brincar com os dados, movê-los para cima ou para baixo e você ainda pode obter seus resultados logo abaixo da célula. É realmente como um organizador mágico que Cientistas de Dados (e as pessoas que executam código) sempre sonharam. Você também pode escrever em R, SQL, Scala, e outras linguagens com Jupyter-Notebook o que faz com que o fluxo de trabalho seja muito mais fácil e eficiente.

Leia na íntegra do blog Ciência e Dados (clicando aqui)

#PensandoEmDados [5] – ETL

No contexto de dados e seu ambiente onde se envolvem Data Warehouse (DW) e Business Intelligence (BI), o processo de Extrair e Tratar os dados é um processo comum, chamado de ETL. Esse processo é dividido em três etapas, em que cada uma delas possui grande importância para o sucesso da transição dos dados dos sistemas de origem para o DW.

Você sabe o que é ETL?

ETL é uma sigla que significa Extract, Transform, Load ou Extração, Transformação e Carga, em português. Para trabalharmos com dados, se faz necessário que esse processo seja realizado com as fontes de dados já bem definidas.

Ao acessar os dados na fonte, a extração é a primeira etapa, tratando-se da obtenção do dado.

A transformação é etapa onde limpamos e preparamos os dados para que ele esteja pronto para consultas com definição de tipos de dados, formatos, medidas e métricas a serem utilizadas nas visualizações.

A carga é a submissão dos dados a um repositório ou Data warehouse, local onde os dados estarão disponíveis para que consultas e visões diferentes dos mesmos possam ser disponibilizadas.

De forma geral, o ETL pode ser representado pela imagem abaixo:

ETL
Figura 1 – Processo de ETL. Autor: Diego Elias [ CanalTech, 2014]

O processo de ETL, por exemplo, é essencial para a criação das estruturas de Dimensões e Fatos no ambiente do DW. É ele que faz a “ponte” de ligação entre o operacional e o DW. Devemos escolher bem as ferramentas que darão suporte ao processo, pois são essenciais para a correta execução das atividades do ETL.

ELIAS, Diego [ CanalTech, 2014]

Em resumo, o processo de ETL é a forma como podemos interligar um sistema de análise de dados ou um novo repositório a fonte original de dados. Bancos de dados, Planilhas, arquivos em servidores e muitos outros formatos podem ser a fonte de dados e, desde que permitam o acesso de aplicações externas, permitirão que a Extração seja feita. Uma vez que essa primeira etapa tenha sido concluída com sucesso, a Transformação (ou tratamento) dos dados e a carga em sua nova estrutura de armazenamento concluem a integração de dados com sucesso.

Para acompanhar essas e outras postagens, me siga pelas redes sociais no Instagram como @profdanielbrandao e Facebook @professordanielbrandao. Em breve a série #PensandoEmDados estará em vídeo também no meu Canal do Youtube (inscreva-se).

O Futuro do Trabalho em 3 conceitos: Dados, Descentralização e Automação

Não sou eu quem estou falando, mas os fatos estão a mostra. A DSA (DataScience Academy) lançou essa semana em seu blog um artigo que trata sobre os 3 principais conceitos do “Trabalho do Futuro”. Os 3 pilares são os já citados no título da postagem: Dados, Descentralização e Automação que, segundo a DSA ” mudarão radicalmente liderança, cultura, privacidade e segurança. Vamos discutir cada um desses conceitos”.

Você DISCORDA?

O Big Data já existe há algum tempo. Muitas vezes, o termo foi cunhado como a próxima “revolução da administração”, a Quarta Revolução Industrial ou “a próxima fronteira para inovação, competição e produtividade”. Embora apenas alguns anos atrás, as organizações ainda lutassem para entender o impacto dessas tendências em seus negócios, o Big Data agora emergiu como o padrão corporativo.

Data Science Academy, 2019

O Futuro do Trabalho é Descentralizado

Termos como Blockchain, Big Data, Machine Learning, Bots e afins estão e estarão cada dia mais em evidência. Será impossível dissociar nossa sociedade cada vez mais conectada de termos e metodologias assim. O profissional do futuro deverá ser familiarizado com isso tudo e muito mais que virá.

Todos nós, do funcionário público ao vendedor de loja, do professor ao cientista, teremos que ser EMPREENDEDORES DE NÓS MESMOS. “Com o futuro do trabalho, os contratos inteligentes removerão cada vez mais a necessidade de julgamento humano e minimizarão a necessidade de confiança. ” [DSA, 2019]

Resumindo

O futuro do trabalho gira em torno de dados, descentralização e automação. A coleta de dados pode ajudar todos os aspectos da sua empresa, desde o desenvolvimento de novos produtos até a melhoria da eficiência operacional. Os dados levam ao conhecimento que, em última análise, impulsiona a tomada de decisão. Como tal, a organização do amanhã é uma empresa de dados.

Quer saber mais sobre DADOS? Acompanhe a série #PensandoEmDados aqui no blog

Leia a postagem na íntegra no Blog DSA

Python, R e Scala: as linguagens da ciência de dados

O Cientista de Dados Igor Bobriakov escreveu um excelente post (em inglês) sobre as principais bibliotecas para Data Science em linguagens Python, R e Scala. Confira a tradução em português

O Cientista de Dados Igor Bobriakov escreveu um excelente post (em inglês) sobre as principais bibliotecas para Data Science em linguagens Python, R e Scala, com um infográfico bastante didático. Neste post você encontra esse excelente trabalho traduzido na íntegra para o português pelo site Ciência e dados. Boa leitura!

Data Science é um campo promissor e empolgante, desenvolvendo-se rapidamente. Os casos de uso e aplicações da Ciência de Dados estão em constante expansão e o kit de ferramentas para implementar esses aplicativos cresce na mesma proporção.

Cada uma dessas linguagens é adequada para um tipo específico de tarefas, além de cada desenvolvedor escolher a ferramenta mais conveniente para si. Muitas vezes, a escolha de uma linguagem de programação é subjetiva, mas, abaixo, tentaremos saudar as forças de cada uma das três linguagens descritas.

Linguagem R

Projetada principalmente para computação estatística, a linguagem R oferece um excelente conjunto de pacotes de alta qualidade para coleta e visualização de dados estatísticos. Outro ponto forte para a Linguagem R é o conjunto de ferramentas bem desenvolvidas para pesquisa reproduzível. No entanto, R pode ser de alguma forma específico e não é tão bom quando se trata de engenharia e alguns dos casos de programação de propósito geral.

Linguagem Python

Python é uma linguagem de propósito geral com um rico conjunto de bibliotecas para uma ampla gama de propósitos. É tão boa para problemas de matemática, engenharia e Deep Learning quanto para manipulação de dados e visualizações. Esta linguagem é uma excelente escolha para especialistas iniciantes e avançados, o que a torna extremamente popular entre os Cientistas de Dados.

Linguagem Scala

Scala é uma solução ideal para trabalhar com Big Data. A combinação Scala e Apache Spark oferece a oportunidade de aproveitar ao máximo a computação distribuída em cluster de computadores. Portanto, a linguagem possui muitas ótimas bibliotecas para aprendizado de máquina e engenharia; no entanto, falta possibilidades de análise e visualização de dados em comparação com as linguagens anteriores. Se você não estiver trabalhando com Big Data, o Python e R podem mostrar um desempenho melhor que Scala. Mas se estiver trabalhando com Big Data, Scala pode ser a melhor opção.

Continue Lendo “Python, R e Scala: as linguagens da ciência de dados”

CaseCrunch: O advogado “robô”

Imagem relacionada

Uma disputa bastante inusitada acabou com um sistema de inteligência artificial derrotando competidores humanos e não estou falando de partidas de xadrez – trata-se, na verdade, de um campeonato de advogados que colocou o CaseCrunch Alpha para enfrentar 100 profissionais reais da área. O resultado? Um baile da IA, que obteve uma taxa de precisão de 86,6%, enquanto que as pessoas de carne e osso chegaram a apenas 66.3%.

O CaseCrunch se tornou um sistema capaz de realizar previsões com base em informações sobre os casos e as leis locais

Os advogados e a inteligência artificial receberam informações básicas sobre centenas de casos de venda incorreta de seguro de proteção de pagamento e deveriam prever se o provedor financeiro de justiça permitiria uma reclamação. Foi nessas previsões que o CaseCrunch Alpha se saiu muito melhor que os profissionais de verdade.

De tirar dúvidas a prever

Criada por estudantes de direito de Cambridge, a plataforma funcionava inicialmente apenas como um bot de bate papo que tinha como objetivo tirar dúvidas legais de pessoas. A partir daí, o CaseCrunch se tornou um sistema capaz de realizar previsões com base em informações sobre os casos e as leis locais.

Ainda é muito para dizer se em algum dia os advogados poderão ser substituídos por máquinas, visto que o direito é um assunto sempre bastante subjetivo. Seja como for, se você for advogado, é bom ficar de olho: seu emprego pode estar com os dias contados.

Fonte: TecMundo.