Coronavírus: Uso da tecnologia na detecção de problemas

Ferramentas disruptivas têm contribuído para detectar casos suspeitos de coronavírus nos aeroportos

Cresce o uso da tecnologia em situações de conflito ou calamidades públicas. Na medida que o desenvolvimento da ciência de ponta avança, torna-se cada vez mais comum o uso de ferramentas tecnológicas no diagnóstico de problemas, na solução de crimes ou na cura de enfermidades.

Nas últimas semanas, um vírus misterioso que já atingiu diversas localidades tem preocupado as autoridades e a opinião pública. O coronavírus provocou um surto de pneumonia e foi identificado primeiro em Wuhan, na China. Autoridades do país confirmaram na última semana que a doença tem transmissão entre humanos.

Na tarde de ontem (28), o Ministério da Saúde divulgou que são três caso suspeitos do coronavírus 2019-nCoV no Brasil – um em São Leopoldo (RS), e outro em Curitiba. O governo já havia noticiado anteriormente que um caso também estava sendo investigado em Belo Horizonte (MG)

Abordagens inteligentes

Em conjunto com ações básicas, o uso da tecnologia de ponta tem sido importante para o diagnóstico de problemas. Segundo matéria publicada pela Agência Brasil EBC, os aeroportos aumentaram o processo de triagem.

As câmeras de imagens térmicas nos aeroportos, por exemplo, ajudam a monitorar a temperatura corporal dos passageiros, atuando como uma ferramenta essencial durante epidemias ou surtos de gripe.

Em 2003, em meio a um surto da Síndrome Respiratória Aguda Grave (SARS), que também teve início na China, vários aeroportos utilizaram o scanner térmico para detectar febre em passageiros. Segundo o The Guardian, os aeroportos chineses têm tomado medidas drásticas de proteção – profissionais têm checado até a tosse de passageiros.

A tecnologia utilizada na prevenção de acidentes também se configura como uma ferramenta essencial de proteção. Os desastres recentes no Brasil, envolvendo o rompimento de barragens, destacam o uso de tecnologias disruptivas na busca por pessoas desaparecidas.

Leia + clicando aqui

Many Eyes – Visualizando Dados Online

Olá, pessoal.

Conheci recentemente uma ferramenta chamava Many Eyes, uma ferramenta online e gratuita, mantida pela IBM, mas criada pela brasileira Fernanda Viégas.

Ela criou, juntamente com colegas de Google na época, uma ferramenta capaz de receber dados de qualquer tipo e gerar visualizações que qualquer pessoa possa usar e também compreender.

Assista a apresentação que ela fez em 2014, com esse vídeo no youtube:

Para saber mais, acesse: https://www.boostlabs.com/ibms-many-eyes-online-data-visualization-tool/

Como Será o Trabalho do Futuro?

O texto publicado originalmente no blog da DSA nos traz uma reflexão sobre o futuro das profissões, em especial a do Cientista de dados. Os últimos anos foram intensos para a Ciência de Dados e com base em tudo que vivemos até aqui é possível traçar um panorama sobre a Ciência de Dados nos próximos anos! Como Será o Trabalho do Cientista de Dados no Futuro?

O Que Vivemos Até Aqui?

Nos últimos 10 anos vimos uma verdadeira explosão na geração e utilização de dados. Com a presença de mais de metade da população do planeta na internet, a geração de dados cresceu de forma exponencial, surgindo assim o famoso termo Big Data, dados gerados em alto volume, alta variedade e alta velocidade. Percebeu-se que ao analisar essa montanha de dados, era possível coletar insights e fazer previsões com nível de precisão cada vez maior e dessa forma, a Ciência de Dados, impulsionada por Machine Learning e Inteligência Artificial, deu um salto e ganhou o mundo, promovendo o surgimento de diversas carreiras, tais como Cientista de Dados, Engenheiro de Dados, Engenheiro de Machine Learning, Engenheiro de IA, entre outras. As empresas iniciaram a corrida pelos dados e pelos profissionais capazes de extrair desse tesouro todo o valor que eles oferecem. Os dados se transformaram no novo petróleo fazendo com que as empresas adotassem uma cultura data-driven (orientada a dados).

E O Futuro? O Que nos Reserva?

Tudo que vimos até aqui ainda é considerado a ponta do iceberg. Muitos acreditam que ainda estamos na infância do Big Data e quando a Internet das Coisas (IoT) se tornar realidade, veremos um salto ainda maior na geração de dados e consequentemente um salto na necessidade de profissionais qualificados.

Algoritmos de Ciência de Dados cada vez mais complexos continuarão incluídos em pacotes e tecnologias que facilitam a implantação em ordens de magnitude. Considere como é a experiência de treinamento e implantação (em escala) de um algoritmo de Machine Learning hoje em comparação com dez anos atrás – suas ordens de magnitude são mais rápidas de aplicar, podem ser feitas com um maior grau de qualidade e com menos conhecimento técnico e estatístico. Essa é uma tendência comum em muitas áreas da Ciência de Dados.

A grande maioria das empresas ainda não descobriu os benefícios da adoção de Machine Learning, IA e técnicas relacionadas de maneiras que influenciam seus negócios. Mas à medida que a tecnologia evolui e se populariza, mais e mais empresas adotarão a Ciência de Dados como parte de suas estratégias. Não é difícil prever isso. Basta observar o uso da internet 10 anos atrás e hoje. Toda média e grande empresa e órgãos públicos tem algum tipo de estratégia que envolva a internet e o mesmo vai ocorrer com Data Science nos próximos anos. É inevitável.

omo Será o Trabalho do Cientista de Dados no Futuro?

Listamos 10 fatores que ajudam a explicar Como Será o Trabalho do Cientista de Dados no Futuro. Confira:

1- Por que os Cientistas de Dados serão inevitáveis no futuro?

Antes de discutirmos a resposta, vamos entender por que os Cientistas de Dados hoje em dia desfrutam de uma demanda tão grande no mercado. A resposta curta e simples é que, na última década, houve uma enorme explosão na quantidade de dados gerados e retidos pelas organizações, bem como pelas pessoas comuns.

Quase todas as empresas ou negócios hoje dependem fortemente de dados, dando origem a uma enorme demanda por Cientistas de Dados qualificados, além de outras funções relacionadas, principalmente de Engenheiro de Dados. E com mais e mais dados sendo capturados em todo o mundo, a demanda por conhecimento para extrair informações valiosas e acionáveis desses dados só aumentará. Investir em uma carreira em Ciência de Dados é uma decisão bastante inteligente.

E não apenas o Cientista de Dados tem um crescimento vertiginoso na demanda, mas diversas outras carreiras necessárias para compor uma equipe de Data Science…

Leia o restante na ÍNTEGRA no blog da Data Science Academy

Por que Cientistas de Dados escolhem Python?

A Ciência de Dados é algo que está em evidência hoje no mundo digital. Compondo um ranking das Top 10 profissões do futuro, a profissão de cientista de dados requer que o profissional tenha um conjunto de habilidades e conhecimentos para poder executar bem suas tarefas. Mas, por que a maioria dos cientistas de dados escolhem a linguagem PYTHON?

Python é uma linguagem de programação que foi concebida no final de 1980 e sua implementação foi iniciada em Dezembro de 1989 por Guido van Rossum no CWI na Holanda, como um sucessor para a linguagem de programação ABC capaz de manipulação de exceção e interface com o sistema operacional Amoeba . Van Rossum é o principal autor da linguagem Python e continua como líder nas decisões que envolvem o futuro da linguagem.

Recentemente o blog Ciência e Dados publicou matéria a respeito elencando os porquês dessa escolha por parte dos profissionais e futuros profissionais da área.

Por que os Cientistas de Dados preferem codificação em Python?

Perceba que este pode ser um tema polêmico. Outras linguagens de programação podem ser usadas para o mesmo fim e fatores muitas vezes pessoais estarão envolvidos nesta escolha. Mas aqui seguem algumas razões porque usar Python.

Grande comunidade – com Python, você pode encontrar uma grande (e crescente) Comunidade. No final do dia, se você se perder, pode contar com uma grande comunidade de especialistas para ajudá-lo a encontrar uma solução adequada para a codificação (mesmo em nichos específicos) além de respostas a perguntas relacionadas com a Ciência de Dados e Análise de Dados.

Crescente número de bibliotecas de análise de dados – Com Python, você pode encontrar uma grande variedade bibliotecas de Ciência de dados (como por exemplo: NumPy, SciPy, StatsModels, scikit-learn, pandas, etc.), que estão em crescimento exponencial. Restrições (em métodos de otimização / funções) que estavam faltando um ano atrás já não são um problema e você pode encontrar uma solução robusta adequada, que funciona de forma confiável.

Juypyter-Notebook – esta é simplesmente uma grande ferramenta. Você pode executar múltiplas linhas / blocos de código em diferentes células, você pode brincar com os dados, movê-los para cima ou para baixo e você ainda pode obter seus resultados logo abaixo da célula. É realmente como um organizador mágico que Cientistas de Dados (e as pessoas que executam código) sempre sonharam. Você também pode escrever em R, SQL, Scala, e outras linguagens com Jupyter-Notebook o que faz com que o fluxo de trabalho seja muito mais fácil e eficiente.

Leia na íntegra do blog Ciência e Dados (clicando aqui)

#PensandoEmDados [3] – Armazenando dados

Como você deve saber, os dados são passíveis de serem coletados de várias maneiras. Sensores, formulários, bases de dados, câmeras e variados sistemas, em conjunto ou separadamente, podem ser usados como coletores de dados. Mas, você já se perguntou onde SEUS DADOS são ARMAZENADOS?

Armazenando dados

Se você já tem conhecimento na área de sistemas e desenvolvimento, sabe que o meio mais tradicional de armazenamento de dados são os Bancos de dados (BD). Os BDs são bases que contém uma estrutura e regras para armazenagem de dados em formatos geralmente pré-estabelecidos, utilizando SGBDs (Sistemas Gerenciadores de Banco de Dados). Os modelos de bancos de dados mais tradicionais e ainda grandemente utilizados são os bancos de dados Relacionais.

O termo RELACIONAL vem do conceito matemático de relações, onde um dado conjunto A pode se relacionar com um B, que por sua vez pode ser relacionado a um C. O conceito de “estar contido” ou “não estar contido” te remete a alguma coisa? Pois é, esse princípio matemático define o que seriam os relacionamentos.

Os BDs relacionais são baseados em TABELAS, que possuem um nome e colunas que definem que tipo de dado será guardado. Os tipos de dados a serem armazenados devem ser definidos na criação da tabela e cada campo da tabela terá um tipo específico de dado, como: String (caracteres), Double/Float/Integer (tipos numéricos), Boolean (tipo booleano), Data/Datatime/TimeStamp (tipos que armazenam data e/ou data e hora), entre outros.

Dos bancos relacionais no mercado, se destacam os robustos ORACLE, SQL SERVER (da Microsoft), BD2 (da IBM) como Bancos proprietários (pagos). Para os gratuitos temos  POSTGRESQL e MySQL (pertencente a Oracle mas com a versão MariaDB gratuita).

Outros tipos de Bases de dados

Existem outros tipos de bancos de dados além dos relacionais. Um dos que está em maior crescimento são os NoSQL (acrônimo para Não Apenas SQL), também conhecidos por Bancos Não Relacionais. Os NoSQL dividem-se basicamente em 4 modelos: Documentos, Grafos, Colunas e Chave-valor [baseado em Amazon, 2018]. O modelo que tem tido maior volume de utilizadores é o baseado em Documentos, dentre eles se destaca o MongoDB.

Além de um banco de dados e seu SGBD, os dados podem ser armazenados em arquivos de texto, planilhas ou em bancos de dados de outro tipo como Objeto-Relacional, Hierárquico, Rede, etc.

De um modo geral, armazenar dados pode ser feito de diversas maneiras e, com isso, sistemas heterogêneos podem ser criados. Para poder gerenciar essa gama de dados vindos e armazenados em distintos formatos, temos o importante papel da INTEGRAÇÃO DE DADOS, tema de nossa próxima postagem. Até lá!

Siga-me nas redes sociais:

5 cursos online gratuitos da USP com foco em Python, Big Data e UX

Para aqueles que estão buscando renovar a carreira em TI ou mesmo começar um curso para trabalhar na área, há uma série de opções online – e gratuitas. A Universidade de São Paulo (USP), por exemplo, disponibiliza cursos online com foco em tecnologia da informação (TI), ciência da computação, Big Data e outros temas relacionados.

Entre as opções está o curso de linguagem Phyton, que ensina noções básicas da linguagem de programação para que o usuário desenvolva pequenos programas nessa linguagem. Segundo a instituição, “o objetivo principal é desenvolver o raciocínio aplicado à formulação e resolução de problemas computacionais”. Ao término do aprendizado, o aluno pode cursar a segunda parte do curso voltado à programação em Phyton.

Outro módulo disponível é a introdução ao Big Data, voltado para usuários “que desejam entender de forma fácil o que é Big Data, conhecer algumas tecnologias de Big Data, ter acesso a algumas aplicações de Analytics, Internet das Coisas – IOT e de Big Data”. O usuário também é inserido em um projeto de conclusão do curso, que consiste em um projeto de Big Data elaborado com estratégias e análises de dados.

Os cursos não possuem pré-requisitos – basta apenas completar um cadastro na plataforma Coursera, que também é gratuita -, nem experiência prévia em programação. A única “cobrança” é que o aluno domine conceitos básicos de matemática do ensino fundamental. Além disso, cada módulo leve em média 31 horas para ser completado, porém esse tempo é amplamente dividido em diversas subcategorias.

Clique nos links abaixo para acessar os cursos gratuitos da USP:

Introdução à Ciência da Computação com Python Parte 1

Introdução à Ciência da Computação com Python Parte 2

Introdução ao Teste de Software

Introdução ao Big Data

UX / UI: Fundamentos para o design de interface

Fonte: Computer World

#PensandoEmDados [2] – Big Data

Como lidar com tamanha quantidade de dados?

Tudo que fazemos gera dado, aonde quer que formos, estaremos gerando e consumindo os mesmos. Somos as fontes dos próprios dados e geramos o volumoso aglomerado de dados chamado de BIG DATA.

Como lidar com tamanha quantidade de dados?

Saber distinguir os dados entre si e como proceder para lidar com o grande volume é uma das maiores tarefas que temos hoje em dia. BIG DATA é o termo que se associa a um amontoado GIGANTE de dados que pode pertencer a um mesmo domínio (uma empresa, uma rede social, um rastreamento de dispositivo, etc) ou a junção de vários domínios.

Com esse mundo “globalizado” dos dados, existem muitos tipos diferentes de dados. Quem trabalha com programação e lida com bancos de dados sabe os diferentes formatos que os dados podem ter como Strings (caracteres), Double, Float (números decimais), Int (números inteiros) boolean (valor booleano entre Verdadeiro ou Falso) e etc.

Por exemplo, um cadastro ou base de dados cadastrais é formado de casos ou registros (que no caso são os clientes) e variáveis. Para cada cliente temos o resultado das variáveis. Por exemplo, o primeiro cliente da base de dados tem o nome Fulano de Tal, o Sexo Masculino, o Estado Civil Solteiro, a Renda R$2.500,00 por mês, etc [Pinheiro, 2011].

O Gartner Group (2001) traz a seguinte definição sobre o assunto:

“Big data são dados com maior variedade que chegam em volumes crescentes e com velocidade cada vez maior.”

Gartner, 2001

Esse conceito já demonstra os V´s que envolvem o conceito. Enquanto essa definição inicial inclui apenas 3 Vs, hoje já se trabalha com pelo menos 5 (apesar que existem equipes e empresas que já apresentam até 10 deles). Os que podemos chamar de principais, além dos já citados Variedade, Volume e Velocidade são:

  • Veracidade
  • Valor
  • Variabilidade
  • Visualização

A veracidade é item crítico, afinal com dados falsos ou não reais teríamos uma inutilidade dos dados. Seu valor está também ligado a isso, dados terão valor quanto maior sua capacidade de agregar eles tiverem. Variabilidade é a capacidade que os dados tem de variar em si mesmo, valioso quando analisamos dados em tempo real. E a visualização é a demonstração desses dados que na maioria das vezes será através de gráficos e painéis (dashboards). [baseado em IMPACT, 2016]

Para lidar com todas as nuances dos dados, alguns aspectos técnicos como Mineração de Dados, o processo de ETL e conceitos de DataWarehouse e Data Mart são importantes aliados.

No próximo post falaremos mais sobre as técnicas de armazenamento e tratamento de dados.

Siga-me nas redes sociais:

O Começo da série #PensandoEmDados

Vamos falar sobre DADOS?

Hoje damos início a uma série de posts e artigos sobre DADOS. Irei postar tanto aqui no blog como em minhas redes sociais. Falaremos sobre dados em todo seu contexto, de sua definição aos formatos, tipos e como são utilizados em nosso mundo atual.

Partindo do principio da ORIGEM dos dados, de suas diversas fontes que hoje dão origem como computadores, smartphones, sensores inteligentes, satélites e até os aplicativos do seu celular e os embarcados no seu carro.

Se você quer acompanhar as postagens, SIGA MEU BLOG, adicione aos seus favoritos. Me siga também nas redes sociais (Instagram, Twitter e Facebook) e vamos juntos nessa. Com a boa repercussão das postagens, poderemos criar também uma série de vídeos nessa temática em meu canal do Youtube. O que você acha? deixe seu comentário abaixo e sugestão de tópicos a serem abordados. Te vejo no futuro.

Big Data: Análise de dados GRANDES!

Big Data tem sido alvo de muitas noticias e pesquisas no mundo inteiro. Praticamente todas as empresas de tecnologia em software tem buscado soluções de como filtrar e tratar de forma boa e cordial o mundaréu de dados existentes hoje na internet.

A Intel lançou um projeto, além de um curso online, que trata bem desse assunto. Se você quer entender melhor sobre isso, acesse o link do vídeo clicando aqui.