Fixando célula em uma fórmula no Excel

Como fixar o valor de uma célula em uma fórmula no EXCEL?

Essa dica vai para quem quer realizar cálculos em várias células diferentes mas se baseando em um mesmo valor.

No Exemplo da imagem, estamos calculando quantos porcento cada Total (coluna E) representa do total de vendas feitas em um período. Para chegar nesse valor, dividimos o TOTAL de cada produto (coluna E) pelo TOTAL VENDA(célula E6).

Ao utilizarmos o símbolo de cifrão ($) antes do valor de uma célula, fixamos o valor dela, podendo, assim, arrastar a fórmula para uma outra célula. No nosso exemplo, a fórmula da célula F2 é a divisão do valor da célula E2 com o total do somatório dos produtos vendidos (célula E6).

Logo, esse $ faz toda a diferença, fazendo com que você possa aplicar a fórmula na célula F2 e depois arrastando ela para as demais abaixo (de F3 até F5 e além).

GOSTOU DA DICA? FICOU NA DÚVIDA? DEIXE SEU COMENTÁRIO ABAIXO.

#PensandoEmDados [5] – ETL

No contexto de dados e seu ambiente onde se envolvem Data Warehouse (DW) e Business Intelligence (BI), o processo de Extrair e Tratar os dados é um processo comum, chamado de ETL. Esse processo é dividido em três etapas, em que cada uma delas possui grande importância para o sucesso da transição dos dados dos sistemas de origem para o DW.

Você sabe o que é ETL?

ETL é uma sigla que significa Extract, Transform, Load ou Extração, Transformação e Carga, em português. Para trabalharmos com dados, se faz necessário que esse processo seja realizado com as fontes de dados já bem definidas.

Ao acessar os dados na fonte, a extração é a primeira etapa, tratando-se da obtenção do dado.

A transformação é etapa onde limpamos e preparamos os dados para que ele esteja pronto para consultas com definição de tipos de dados, formatos, medidas e métricas a serem utilizadas nas visualizações.

A carga é a submissão dos dados a um repositório ou Data warehouse, local onde os dados estarão disponíveis para que consultas e visões diferentes dos mesmos possam ser disponibilizadas.

De forma geral, o ETL pode ser representado pela imagem abaixo:

ETL
Figura 1 – Processo de ETL. Autor: Diego Elias [ CanalTech, 2014]

O processo de ETL, por exemplo, é essencial para a criação das estruturas de Dimensões e Fatos no ambiente do DW. É ele que faz a “ponte” de ligação entre o operacional e o DW. Devemos escolher bem as ferramentas que darão suporte ao processo, pois são essenciais para a correta execução das atividades do ETL.

ELIAS, Diego [ CanalTech, 2014]

Em resumo, o processo de ETL é a forma como podemos interligar um sistema de análise de dados ou um novo repositório a fonte original de dados. Bancos de dados, Planilhas, arquivos em servidores e muitos outros formatos podem ser a fonte de dados e, desde que permitam o acesso de aplicações externas, permitirão que a Extração seja feita. Uma vez que essa primeira etapa tenha sido concluída com sucesso, a Transformação (ou tratamento) dos dados e a carga em sua nova estrutura de armazenamento concluem a integração de dados com sucesso.

Para acompanhar essas e outras postagens, me siga pelas redes sociais no Instagram como @profdanielbrandao e Facebook @professordanielbrandao. Em breve a série #PensandoEmDados estará em vídeo também no meu Canal do Youtube (inscreva-se).

Professores brasileiros realizam chamada por reconhecimento facial

Aplicativo com inteligência artificial usado como chamada foi criado em laboratório do IFES

Reconhecimento facial em escolas

Professores do Instituto Federal do Espírito Santo (Ifes) estão usando um novo método para realizar as chamadas dos alunos. Por meio do aplicativo IAmHere, que utiliza inteligência artificial, eles realizam as chamadas em sala de aula usando reconhecimento facial. A tecnologia assegura o controle de presença com mais rigidez e reduz o tempo para verificar quais alunos assistiram à aula.

aplicativo foi desenvolvido pelo Laboratório de Extensão em Desenvolvimento de Soluções (Leds) do Ifes, Campus Serra. Ele foi pensado por professores do próprio laboratório e desenvolvido por quatro alunos do curso de graduação em Sistemas de Informação e do curso técnico em Informática. O app está em uso no instituto desde abril deste ano. 

Como funciona? 

O cadastro dos alunos pode ser feito tanto com uma foto coletiva quanto individual. Alunos e professores podem cadastrá-las no aplicativo, que requer apenas o nome e o número de matrícula do estudante. A partir das fotos que são inseridas, o sistema é treinado para reconhecer as faces dos jovens.

Durante as chamadas, os professores abrem o aplicativo e pedem para os alunos olharem para a câmera de seu celular. Ao tirar uma foto da turma, o app identifica a face dos alunos presentes e as compara com as imagens cadastradas no sistema. Após confirmar a presença, os estudantes recebem uma notificação em seus telefones que ratificam o registro do comparecimento. 

FONTE: Olhar Digital/A Gazeta

#PensandoEmDados [4] – Integração de dados

Integração de dados é combinação de processos técnicos e de negócios utilizados para combinar dados de…

Integrar dados é unificar diferentes bases

A busca por informações sobre qualquer assunto requer dados íntegros e confiáveis. É de interesse de todos que dados verdadeiros e completos sejam recolhidos para uma análise, seja para um relatório mensal/semestral de uma instituição ou o resultado de uma busca na internet. A fonte dos dados é de vital importância nesse aspecto e, por isso, integração de dados é tema recorrente nas pesquisas, artigos e nos estudos sobre DADOS.

O termo INTEGRAÇÃO vem justamente de integrar, tornar íntegro, formando um conjunto de dados a partir de fontes e origens distintas. A IBM é uma gigante da área de computação e de lidar com dados. Em seu site oficial, ela nos traz a seguinte definição:

“A integração de dados é a combinação de processos técnicos e de negócios utilizados para combinar dados de fontes distintas em informações valiosas e relevantes através de um software de integração.”

IBM, 2018

Diversas empresas e organizações passaram a criar mecanismos para que diferentes tipos de dados pudessem ter uma conexão, principalmente após o termo Big Data ficar em evidencia. Empresas como a Microsoft, Oracle, Amazon e a própria IBM tem criado grupos de trabalho e pesquisa e com isso temos hoje diversas formas de realizar essa integração e análise de dados de maneira rápida, com baixo custo e com uso de inteligência artificial no processo.

Apache Hadoop

Hadoop é uma plataforma da Apache Foundation criada para computação distribuída. Ou seja, é um sistema que consegue unificar várias máquinas (computadores) que passam a ser enxergados como um só. Com ele, trabalhar com processamento de dados em grandes volumes a tarefa passa a ser menos penosa. Além do Hadoop, a Apache se destaca de várias formas com produtos que atendem a diversas demandas voltadas a dados. Por ser uma fundação, não tem necessariamente fins lucrativos, o que torna o uso de seus sistemas práticos para diversos projetos, sejam eles públicos ou privados.

Com ferramentas com essa, é possível receber dados vindos de um banco de dados Relacional, outro de um banco Não Relacional, de um .TXT ou .CSV, uma planilha ou de diversos outros sistemas, conecta-los entre si e criar visualizações a partir dessa unificação.

Em resumo, integração de dados é preciso para que possamos ter a consolidação da informação e, com isso, a geração de conhecimento acerca de um ou de vários tipos de dados.

O Futuro do Trabalho em 3 conceitos: Dados, Descentralização e Automação

Não sou eu quem estou falando, mas os fatos estão a mostra. A DSA (DataScience Academy) lançou essa semana em seu blog um artigo que trata sobre os 3 principais conceitos do “Trabalho do Futuro”. Os 3 pilares são os já citados no título da postagem: Dados, Descentralização e Automação que, segundo a DSA ” mudarão radicalmente liderança, cultura, privacidade e segurança. Vamos discutir cada um desses conceitos”.

Você DISCORDA?

O Big Data já existe há algum tempo. Muitas vezes, o termo foi cunhado como a próxima “revolução da administração”, a Quarta Revolução Industrial ou “a próxima fronteira para inovação, competição e produtividade”. Embora apenas alguns anos atrás, as organizações ainda lutassem para entender o impacto dessas tendências em seus negócios, o Big Data agora emergiu como o padrão corporativo.

Data Science Academy, 2019

O Futuro do Trabalho é Descentralizado

Termos como Blockchain, Big Data, Machine Learning, Bots e afins estão e estarão cada dia mais em evidência. Será impossível dissociar nossa sociedade cada vez mais conectada de termos e metodologias assim. O profissional do futuro deverá ser familiarizado com isso tudo e muito mais que virá.

Todos nós, do funcionário público ao vendedor de loja, do professor ao cientista, teremos que ser EMPREENDEDORES DE NÓS MESMOS. “Com o futuro do trabalho, os contratos inteligentes removerão cada vez mais a necessidade de julgamento humano e minimizarão a necessidade de confiança. ” [DSA, 2019]

Resumindo

O futuro do trabalho gira em torno de dados, descentralização e automação. A coleta de dados pode ajudar todos os aspectos da sua empresa, desde o desenvolvimento de novos produtos até a melhoria da eficiência operacional. Os dados levam ao conhecimento que, em última análise, impulsiona a tomada de decisão. Como tal, a organização do amanhã é uma empresa de dados.

Quer saber mais sobre DADOS? Acompanhe a série #PensandoEmDados aqui no blog

Leia a postagem na íntegra no Blog DSA

#PensandoEmDados [3] – Armazenando dados

Como você deve saber, os dados são passíveis de serem coletados de várias maneiras. Sensores, formulários, bases de dados, câmeras e variados sistemas, em conjunto ou separadamente, podem ser usados como coletores de dados. Mas, você já se perguntou onde SEUS DADOS são ARMAZENADOS?

Armazenando dados

Se você já tem conhecimento na área de sistemas e desenvolvimento, sabe que o meio mais tradicional de armazenamento de dados são os Bancos de dados (BD). Os BDs são bases que contém uma estrutura e regras para armazenagem de dados em formatos geralmente pré-estabelecidos, utilizando SGBDs (Sistemas Gerenciadores de Banco de Dados). Os modelos de bancos de dados mais tradicionais e ainda grandemente utilizados são os bancos de dados Relacionais.

O termo RELACIONAL vem do conceito matemático de relações, onde um dado conjunto A pode se relacionar com um B, que por sua vez pode ser relacionado a um C. O conceito de “estar contido” ou “não estar contido” te remete a alguma coisa? Pois é, esse princípio matemático define o que seriam os relacionamentos.

Os BDs relacionais são baseados em TABELAS, que possuem um nome e colunas que definem que tipo de dado será guardado. Os tipos de dados a serem armazenados devem ser definidos na criação da tabela e cada campo da tabela terá um tipo específico de dado, como: String (caracteres), Double/Float/Integer (tipos numéricos), Boolean (tipo booleano), Data/Datatime/TimeStamp (tipos que armazenam data e/ou data e hora), entre outros.

Dos bancos relacionais no mercado, se destacam os robustos ORACLE, SQL SERVER (da Microsoft), BD2 (da IBM) como Bancos proprietários (pagos). Para os gratuitos temos  POSTGRESQL e MySQL (pertencente a Oracle mas com a versão MariaDB gratuita).

Outros tipos de Bases de dados

Existem outros tipos de bancos de dados além dos relacionais. Um dos que está em maior crescimento são os NoSQL (acrônimo para Não Apenas SQL), também conhecidos por Bancos Não Relacionais. Os NoSQL dividem-se basicamente em 4 modelos: Documentos, Grafos, Colunas e Chave-valor [baseado em Amazon, 2018]. O modelo que tem tido maior volume de utilizadores é o baseado em Documentos, dentre eles se destaca o MongoDB.

Além de um banco de dados e seu SGBD, os dados podem ser armazenados em arquivos de texto, planilhas ou em bancos de dados de outro tipo como Objeto-Relacional, Hierárquico, Rede, etc.

De um modo geral, armazenar dados pode ser feito de diversas maneiras e, com isso, sistemas heterogêneos podem ser criados. Para poder gerenciar essa gama de dados vindos e armazenados em distintos formatos, temos o importante papel da INTEGRAÇÃO DE DADOS, tema de nossa próxima postagem. Até lá!

Siga-me nas redes sociais:

5 cursos online gratuitos da USP com foco em Python, Big Data e UX

Para aqueles que estão buscando renovar a carreira em TI ou mesmo começar um curso para trabalhar na área, há uma série de opções online – e gratuitas. A Universidade de São Paulo (USP), por exemplo, disponibiliza cursos online com foco em tecnologia da informação (TI), ciência da computação, Big Data e outros temas relacionados.

Entre as opções está o curso de linguagem Phyton, que ensina noções básicas da linguagem de programação para que o usuário desenvolva pequenos programas nessa linguagem. Segundo a instituição, “o objetivo principal é desenvolver o raciocínio aplicado à formulação e resolução de problemas computacionais”. Ao término do aprendizado, o aluno pode cursar a segunda parte do curso voltado à programação em Phyton.

Outro módulo disponível é a introdução ao Big Data, voltado para usuários “que desejam entender de forma fácil o que é Big Data, conhecer algumas tecnologias de Big Data, ter acesso a algumas aplicações de Analytics, Internet das Coisas – IOT e de Big Data”. O usuário também é inserido em um projeto de conclusão do curso, que consiste em um projeto de Big Data elaborado com estratégias e análises de dados.

Os cursos não possuem pré-requisitos – basta apenas completar um cadastro na plataforma Coursera, que também é gratuita -, nem experiência prévia em programação. A única “cobrança” é que o aluno domine conceitos básicos de matemática do ensino fundamental. Além disso, cada módulo leve em média 31 horas para ser completado, porém esse tempo é amplamente dividido em diversas subcategorias.

Clique nos links abaixo para acessar os cursos gratuitos da USP:

Introdução à Ciência da Computação com Python Parte 1

Introdução à Ciência da Computação com Python Parte 2

Introdução ao Teste de Software

Introdução ao Big Data

UX / UI: Fundamentos para o design de interface

Fonte: Computer World