quarta-feira, 20 de abril de 2011

Sistema de arquivos NTFS

Introdução

O NTFS (New Technology File System) é um sistema de arquivos que surgiu com o lançamento do Windows NT. Sua confiabilidade e desempenho fizeram com que fosse adotado nos sistemas operacionais posteriores da Microsoft, como Windows XP, Windows Vista, Windows 7 e Windows Server 2008. Mas, quais são as principais características do NTFS? No que esse sistema de arquivos se diferencia? De fato, o que é NTFS? As respostas para estas e outras questões você confere a seguir.

Antes, o que é um sistema de arquivos?

Não é possível gravar dados em um HD ou em qualquer outro dispositivo de armazenamento de forma a manter as informações acessíveis e organizadas sem um sistema de arquivos (file system) - essencialmente, um tipo de estrutura que indica como os arquivos devem ser gravados e lidos pelo sistema operacional do computador.

É o sistema de arquivos que determina como as informações podem ser guardadas, acessadas, copiadas, alteradas, nomeadas e até apagadas. Ou seja, resumindo, toda e qualquer manipulação de dados em um dispositivo de armazenamento necessita de um sistema de arquivos para que estas ações sejam possíveis. Sem um sistema de arquivos, os dados armazenados seriam apenas um conjunto de bits sem utilidade.

Há vários sistemas de arquivos disponíveis, para os mais diversos sistemas operacionais e para as mais variadas finalidades.

Como o NTFS surgiu?

O NTFS é um sistema de arquivos amplamente utilizado nos sistemas operacionais da Microsoft. Sua primeira aparição foi no Windows NT, sistema operacional para uso em servidores cuja primeira versão foi lançada em 1993. No entanto, a história do NTFS começa muito antes disso.

Até aquela época, a Microsoft não possuía nenhum sistema operacional capaz de fazer frente ao Unix e suas variações em aplicações de servidores. Seus principais produtos eram o MS-DOS e a linha Windows 3.x, essencialmente, sistemas operacionais para uso doméstico ou em escritório. Era preciso criar algo novo, capaz de disputar mercado com as soluções baseadas em Unix. Foi aí que surgiu o Windows NT.

De nada adianta um sistema operacional novo se o seu sistema de arquivos for limitado. Na época, a Microsoft tinha em mãos o sistema de arquivos FAT. Este funcionava razoavelmente bem em aplicações domésticas, mas não serviria aos propósitos do novo projeto por uma série de restrições, entre elas, baixa tolerância a falhas, inviabilidade de uso de permissões de arquivos e limitações para o trabalho com grande volume de dados.

Para superar esses e outros problemas, a Microsoft decidiu utilizar o NTFS. Porém, ao contrário do que muita gente pensa, a empresa não desenvolveu esse sistema de arquivos sozinha. Ela utilizou como base o HPFS (High Performance File System), sistema de arquivos que tinha a IBM por trás.

No início da década de 1980, ambas as companhias fecharam um acordo para o desenvolvimento do OS/2, um sistema operacional até então moderno, que se destacaria por sua capacidade gráfica (naquela época, era muito comum o uso de sistemas operacionais baseados em linha de comando).

O problema é que, logo, Microsoft e IBM passaram a divergir em relação a diversos pontos. Como consequência, desfizeram a parceria. A IBM continuou tocando o projeto do OS/2, enquanto que a Microsoft foi cuidar de seus interesses, mais precisamente, do projeto que resultou no Windows NT. No entanto, a companhia não abandonou a parceria de mãos vazias: levou vários conceitos do HPFS - o sistema de arquivos do OS/2 - relacionados à segurança, confiabilidade e desempenho para posteriormente implementá-los no NTFS.

Sabe-se também que o NTFS tem alguma relação com o Files-11, sistema de arquivos do sistema operacional VMS, que passou às mãos da Compaq em 1998, empresa que posteriormente foi adquirida pela HP. Quando os trabalhos no VMS estavam em andamento, parte de sua equipe se transferiu para Microsoft, com destaque para o engenheiro de software Dave Cutler, um dos nomes por trás do NTFS e do próprio Windows NT

Leia mais: http://www.infowester.com/ntfs.php

Conheça a Memória DDR3 (Double Data Rate 3)

Introdução

As memórias DDR3 (Double Data Rate 3) chegaram ao mercado para substituir o padrão DDR2, tal como este substituiu o tipo DDR. A motivação dessa mudança é, como sempre, a necessidade de melhor desempenho. Neste artigo, você verá as principais características das memórias DDR3 e conhecerá suas diferenças em relação aos padrões anteriores.



Principais características das memórias DDR3

As memórias DDR se destacam em relação ao padrão anterior - memórias SDR SDRAM - porque são capazes de realizar duas operações de leitura ou escrita por ciclo de clock (em poucas palavras, a velocidade com a qual o processador solicita operações - entenda mais neste artigo sobre processadores). As memórias DDR2, por sua vez, dobram essa capacidade, realizando quatro operações por ciclo de clock.

O tipo DDR3 segue o mesmo caminho: dobra a quantidade de operações por vez em relação ao padrão anterior, ou seja, realiza 8 procedimentos de leitura ou gravação a cada ciclo de clock, quatro no início deste e outros quatro no final.

Para compreender melhor este aspecto, considere que, quando nos referimos ao ciclo de clock, estamos tratando da comunicação da memória com o exterior. Porém, a memória trabalha com uma frequência própria internamente.

Levando essa característica em conta mais a questão das operações por ciclo de clock, temos o seguinte cenário:

- Um módulo DDR-400, por exemplo, funciona internamente a 200 MHz, mas oferece 400 MHz por trabalhar com duas operações por ciclo (2 x 200);

- Um pente DDR2-800, que também funciona internamente a 200 MHz, pode oferecer 800 MHz, já que faz uso de quatro operações por vez (4 x 200).

- Seguindo a mesma lógica, podemos tomar como exemplo um módulo DDR3-1600 que, assim como os anteriores, funciona internamente a 200 MHz, no entanto, por utilizar 8 operações por ciclo de clock, pode oferecer 1.600 MHz (8 x 200).

Vale frisar que, em termos gerais, as taxas da frequência de comunicação externa são quatro vezes maiores que o clock interno. Com isso, um módulo que trabalhar internamente a 200 MHz funciona externamente a 800 MHz, por exemplo.

Há, no entanto, um aspecto onde a memória DDR3 leva desvantagem: a latência, em poucas palavras, o tempo que a memória leva para fornecer um dado solicitado. Quanto menor esse número, melhor. Eis as taxas mais comuns para cada tipo de memória:

- DDR: 2, 2,5 e 3 ciclos de clock;

- DDR2: 3, 4 e 5 ciclos de clock;

- DDR3: 7, 6, 8 ou 9 ciclos de clock.

Perceba que, com isso, um módulo DDR2 pode gastar até 5 ciclos de clock para começar a fornecer um determinado dado, enquanto que no tipo DDR3 esse intervalo pode ser de até 9 ciclos.

Para conseguir diminuir a latência, fabricantes fazem uso de vários recursos nos módulos DDR3, como um mecanismo de calibragem de sinal elétrico, que proporciona maior estabilidade nas transmissões.

No que se refere ao consumo de energia, as memórias DDR3 conseguem levar vantagem em relação às tecnologias anteriores: por padrão, trabalham com 1,5 V, contra 1,7 V e 2,5 V dos tipos DDR2 e DDR, respectivamente. É importante destacar, no entanto, que esses valores podem ser aumentados ligeiramente pelo fabricante para atender a determinadas necessidades - alcançar um determinado nível de clock, por exemplo.

Leia mais: http://www.infowester.com/memddr3.php

Dicas do Windows 7: como trocar temas

Dê cara nova ao seu Windows 7 em poucos cliques!



Leia mais no Baixaki: http://www.tecmundo.com.br/9698-dicas-do-windows-7-como-trocar-temas.htm

Dicas do Windows 7: conhecendo o Menu Iniciar

Veja como acessar programas de maneira muito prática com os recursos do Menu Iniciar do Windows 7.



Leia mais no Baixaki: http://www.tecmundo.com.br/9696-dicas-do-windows-7-conhecendo-o-menu-iniciar.htm

Ranking Abril/2011 - Sistemas Operacionais

Ranking de Abril/2011 dos Navegadores

A velocidade média da internet no Brasil

Pesquisas revelam a velocidade média da conexão brasileira à internet. Aproveite e descubra também qual é a média em algumas cidades do país e como testar sua conexão!

Muita coisa mudou desde que a internet chegou ao Brasil, há 20 anos. Novas tecnologias usadas em aplicações online acabam exigindo conexões cada vez mais rápidas com a internet. Felizmente, a banda larga está cada vez mais popular em nosso país e o cenário deve melhorar com as propostas do governo para democratizar o acesso à internet.



Porém, por mais que a situação atual seja favorável, sabemos que ainda há muito trabalho pela frente. Com a popularidade de serviços online, como programas executados na nuvem e streamings de conteúdo multimídia, é essencial que o Brasil possa competir por igual com o resto do mundo. Caso contrário, nosso domínio tecnológico poderia terminar obsoleto.

Mas qual é a velocidade média da conexão brasileira à internet? Chegamos a nos destacar no cenário internacional? Qual posição ocupamos no ranking mundial? Leia o artigo, analise o nosso infográfico e, de quebra, aprenda a calcular a velocidade média da sua conexão.

O relatório Nielsen

Recentemente, a empresa The Nielsen Company divulgou um estudo sobre o uso e a qualidade das conexões de banda larga no mundo. Com base em dados coletados durante o mês de fevereiro de 2011, a instituição analisou nove países — entre eles, o Brasil — e analisou a influência da velocidade da conexão no tempo despendido pelos usuários online.

Para demonstrar os resultados da pesquisa, a Nielsen classificou a velocidade da conexão em quatro grupos:

•lenta: até 512 Kbps;

•média: de 512 Kbps a 2 Mbps;

•rápida: de 2 a 8 Mbps; e

•super-rápida: acima de 8 Mbps.

Para o consumidor final, os dados publicados pelo relatório são satisfatórios. A conexão rápida (2 a 8 Mbps) é a mais comum em oito dos nove países pesquisados: Suíça, Estados Unidos, Alemanha, Austrália, Reino Unido, França, Espanha e Itália. Apenas uma pequena parcela da população usa conexões lentas, enquanto cerca de 19% dos internautas navegam com uma velocidade considerada super-rápida.

Leia mais no Baixaki: http://www.tecmundo.com.br/9683-a-velocidade-media-da-internet-no-brasil-infografico-.htm

O que são threads em um processador?

Definimos e exemplificamos o termo para você. Conheça o que difere os processadores multithread dos comuns.

Se você está lendo este artigo, é porque deve ter conhecimentos básicos para acessar a internet e navegar até o Tecmundo. Além disso, suas noções sobre informática devem comportar certas informações sobre o funcionamento básico de um computador.



Claro, você já ouviu falar em processador, conhece marcas como Intel e AMD, tem ideia de que a CPU faz cálculos, de que ela conta com núcleos e, possivelmente, sabe muito mais do que tudo isso. No entanto, existem coisas que nem sempre são esclarecidas, como é o caso de alguns termos americanos que aparecem quando falamos sobre os processadores.

Uma das palavras mais misteriosas nesse sentido é a “thread”. No que se refere a hardware, essa palavra apareceu no Brasil quando surgiram os primeiros modelos de processador com múltiplos núcleos. A princípio era fácil compreender que um dual-core tinha dois núcleos.

Entretanto, com a evolução das arquiteturas nas CPUs, surgiu o suporte para múltiplos threads (multithreading). E é aí que muitas pessoas se perguntaram o que realmente mudava. Afinal, o que é essa palavra? Faz diferença um processador trabalhar com o dobro de threads? Isso é o que vamos explicar agora!

Leia mais no Baixaki: http://www.tecmundo.com.br/9669-o-que-sao-threads-em-um-processador-.htm

Dicas do Windows 7: conhecendo a Área de trabalho

Se você ainda não está familiarizado com o Windows 7, comece por este simples tour pela Área de trabalho e não se perca.



Leia mais no Baixaki: http://www.tecmundo.com.br/9677-dicas-do-windows-7-conhecendo-a-area-de-trabalho.htm

quinta-feira, 14 de abril de 2011

Desmistificando os dados nos detalhes da conexão de rede

Saiba o que são aqueles itens presentes nos detalhes de uma conexão.

Se algum dia você já precisou abrir as propriedades de conexão em seu computador, deve ter observado que há uma série de números e siglas. Outro detalhe reside no fato de que, normalmente estas especificações são acessadas por meio do IPV4. Você já parou para pensar o que é tudo isso?

Se você sempre quis saber o que eram os dados exibidos na sua conexão de rede, abaixo segue uma pequena descrição de cada um deles.


IPV4 ou IPV6?

A sigla representando o nome de ambos vem de Internet Protocol Version 4 e 6. Você já deve ter percebido que sempre que as propriedades da rede são abertas é a partir do IPV4 na lista em vez de no IPV6. A diferença entre eles é que os protocolos do tipo IPv4 utilizam endereços de 32 bits, o que é suficiente para conectar à rede cerca de 4.3 bilhões de computadores.

O IPv6, utiliza endereços de 128 bits, por isso suporta um número muito maior de dispositivos. Devido ao crescimento dos usuários da internet, em breve a quantidade de usuários suportada pelo IPV4 não será mais suficiente para atender a demanda. Segundo a previsão de especialistas, os endereços restantes do IPv4 serão esgotados até 2012 o que fará necessária a migração para o IPV6.

Endereço IP

O IP, do inglês “Internet Protocol” (Protocolo de Internet), é um dos protocolos principais da Camada de Internet. Ele é o responsável pela entrega de pacotes por toda a rede, efetuando o direcionamento deles (do host para seu destinatário final) baseado nos endereços de cada um.

Cada computador conectado à Internet possui um endereço IP para a sua identificação, como o que aparece quando você acessa as propriedades de conexão de seu computador. Esses números estão no formato decimal, entretanto eles são interpretados pelo computador como binários. Observe que eles são separados por quatro pontos, como na imagem abaixo:

Cada uma dessas partes é chamada de octeto, pois em sua forma binária elas são compostas por oito números. Eles são separadores e utilizados para criar classes de endereços IP. Se você somar todas as posições, o total é de 32 e é por isso que os endereços de IP são considerados como contendo 32 bits.

Máscara de sub-rede

A máscara de sub-rede, falando de uma maneira simples, tem uma estrutura parecida com um endereço IP. Ela também é composta por 32 bits e serve para “mascarar” parte do endereço IP. Entretanto, ela aparece com valores representados por números entre 0 e 255.

Ela tem como principal função notificar ao roteador que as mensagens (com emissor e destino) possuem um endereço distinto. Ela permite reconhecer a parte do identificador de rede e do host. Por meio da máscara de sub-rede o roteador sabe que, se os três primeiros números são compartilhados, os pacotes devem permanecer na rede e não ser transmitidos para outra distinta, por exemplo.

Gateway padrão

O gateway padrão é o responsável por indicar um roteiro padronizado que é utilizado pelo protocolo TCP/IP para comunicar-se com os hosts em outras redes. Eles são essenciais para garantir que o roteamento pelo IP funcione de forma otimizada e eficiente.

É pelo gateway que um roteador percebe que existem redes externas e sabe como se conectar a elas. Se o gateway padrão tiver alguma falha, a comunicação com a internet e redes remotas é prejudicado.

Servidor DNS Preferencial e Alternativo

A sigla DNS, do inglês Domain Name System, é uma espécie de sistema para a tradução de endereços de IP para nomes de domínios. Assim, é possível atribuir nomes a um IP numérico, pois o DNS será responsável por efetuar a interpretação das palavras que foram utilizadas e transformá-las em números, de forma que o computador as compreenda e devolva o caminho correto por meio do acesso bem sucedido.

Existem dois tipos básicos de DNS em uma conexão, o preferencial e o alternativo (também chamados de DNS primário e secundário). O primeiro seria o local no qual o seu computador procura quando você digita um endereço na internet. Caso ele não seja uma identificação boa o suficiente para completar a tarefa, ele tenta buscar no que foi especificado como secundário.

Leia mais no Baixaki: http://www.tecmundo.com.br/9603-desmistificando-os-dados-nos-detalhes-da-conexao-de-rede.htm

Quais as diferenças entre os processadores Intel Core i3, i5 e i7 da primeira e segunda geração?

Conheça os novos processadores Intel e as principais novidades da arquitetura Sandy Bridge.

Em março do ano passado (2010), publicamos uma matéria a respeito das diferenças entre os processadores da família Intel Core, mais especificamente os modelos i3, i5 e i7. Agora, mais de um ano depois, vamos esclarecer as principais mudanças nas CPUs que integram a segunda geração dessa linha.



Lançados no início deste ano, os processadores com microarquitetura Sandy Bridge vêm para mostrar um salto em desempenho computacional. Baseados na arquitetura prévia Nehalem, essas novas CPUs contam com muitas características semelhantes. Todavia, existem mudanças que fazem dessa evolução na linha Intel Core um grande marco na história da maior fabricante de processadores.

Tudo igual... Entretanto, muito diferente

Como a própria Intel denomina, os novos Intel Core i3, i5 e i7 são processadores pertencentes à segunda geração de uma arquitetura que mostrou excelentes resultados. E justamente por não se tratar de um uma nova linha é que muitas configurações são semelhantes.

Leia mais no Baixaki: http://www.tecmundo.com.br/9578-quais-as-diferencas-entre-os-processadores-intel-core-i3-i5-e-i7-da-primeira-e-segunda-geracao-.htm

terça-feira, 12 de abril de 2011

14ª Feira do Estudante - EXPO CIEE 2011

O evento
 
A 14ª Feira do Estudante – EXPO CIEE 2011 é uma iniciativa do Centro de Integração Empresa-Escola – CIEE. Fundado há 47 anos o CIEE é uma organização não governamental (ONG), filantrópica e sem fins lucrativos, que tem como finalidade principal a inclusão profissional de jovens estudantes no mercado de trabalho, por meio de programas de estágio e de aprendizagem, contando com a parceria de 250 mil empresas e órgãos públicos de todo o País.
 
Objetivo
 
A feira de 2011 tem por objetivo criar um ambiente vivencial e interativo onde estudantes possam ter a oportunidade de participar da troca de informações que auxiliem a compreender, planejar e aprimorar a sua carreira. Tudo isso em um espaço que une segmentos empresariais e acadêmicos, sempre considerando a educação e o jovem como chaves para o futuro.
 
Público alvo
 
O evento é direcionado ao público jovem: estudantes do ensino médio, técnico e superior.
 
Local
 
BIENAL DO PARQUE DO IBIRAPUERA / SP
Av. Pedro Álvares Cabral, 1 - São Paulo/SP
Acesso para pessoas com deficiência

Quando

27, 28 e 29 de maio de 2011
Sexta • Sábado – das 10h às 20h
Domingo - das 10h às 18h

Road Show TI 2011 - SENAC SP

Veja a baixo quais são as palestras e os assuntos que elas abordam no Road Show TI 2011:


Inscrições, Dias e Locais acesse clicando AQUI


Carreira e Certificações em Tecnologias Cisco

Certificações Cisco é um fator relevante a ser considerado na busca de empregabilidade na área de TI. Antes de decidir sobre qual certificação escolher dentro dos produtos da CISCO, é necessário primeiramente obter uma visão geral das certificações e opções de carreira que o CISCO disponibiliza. O Cisco oferece três níveis genéricos de certificação com diferentes habilidades e experiências. A palestra explica e apresenta quais são esses níveis e certificados e o que é necessário para consegui-los.


Carreira e Certificações para DBA Oracle

A palestra tem como objetivo apresentar ao público uma visão corporativa sobre a importância que o DBA tem dentro de uma empresa e a expectativa que gerentes e CIOs têm da pessoa que irá conduzir e administrar projetos de banco de dados Oracle. São apresentadas algumas soluções Oracle para problemas de mercado que induzem à necessidade de capacitação do profissional. Por fim, são apresentas as carreiras Oracle e certificações em cada uma delas.


Cloud Computing e Open Source

Cloud Computing não é uma mudança de paradigma, mas a concretização de um conceito conhecido, cuja adoção deve gerar progressos nas áreas de virtualização, automação, disponibilização de portais de auto-serviço com catálogos integrados de ofertas e na disseminação de infraestruturas de redes de banda larga mais poderosas. A computação em nuvem promete trazer muitas vantagens, especialmente para aplicações que exijam grande variação dinâmica de capacidade de processamento.


Desenvolvendo Jogos com XNA

Uma das áreas que certamente conquistam a atenção de milhares de pessoas são os jogos eletrônicos. Nesta palestra os participantes fazem uma rápida passagem sobre o mercado de trabalho na criação de jogos até o que é necessário para criar próprios jogos para computador ou até mesmo para o console XBOX 360 da Microsoft.


Diagramação de Publicações Eletrônicas e Impressas com Indesign

Conheça os principais recursos do Adobe Indesign para criação de revistas, livros, jornais e todo tipo de material para impressão ou visualização na tela e em dispositivos portáteis.


Do início ao fim - Projeto completo para web e celular com Adobe CS5 Web Premium

Veja como é fácil produzir um projeto interativo para a web e celular utilizando as ferramentas adobe web premiu: fireworks, dreamweaver e flash.


Edição e Criação em Vídeo com Premiere, After Effects e Encore

Descubra como produzir vídeos institucionais, vídeos para a internet, editar vídeos de eventos e filmes profissionais com o Adobe Premiere. Veja também como fazer criações com animação e efeitos especiais usando o Adobe After Effects e finalizar para DVDs com Menus e interação utilizando o Encore DVD.

Gerência de Projetos: Uma Carreira em Evidência


A palestra discute a importância da carreira, a visão geral sobre projetos, sucessos e insucessos, estatística de empresa em gerenciamento de projetos, Impactos, criação e a importância de formar profissionais para esse mercado, que atualmente esta carente de profissionais.


Gestão de Serviços de TI - ITIL V3

A palestra aborda os desafios da gestão da tecnologia da informação nas organizações, serviços de TI, gerenciamento, qualidade, melhores práticas do mercado, biblioteca de Infraestrutura de Tecnologia da Informação (ITIL), gestão de serviços de TI baseado no ITIL V3 e sesafios e tendências do gerenciamento.


Help Desk: a porta do sucesso na carreira em TI

O HDI, a maior associação mundial de profissionais de help desk do mundo, fará uma palestra no Senac mostrando as inúmeras oportunidades e vantagens de se trabalhar na área de help desk, um dos mais promissores mercados de trabalho de TI. A palestra explica porque o help desk é um dos maiores preparadores de talentos em tecnologia e porque as empresas contratam milhares de funcionários todos os anos para essa área.


O HTML5, Web Semântica e Dados Abertos Governamentais

A linguagem HMTL, básica para o funcionamento da web como a conhecemos hoje, vem evoluindo graças ao Consórcio W3C e o seu papel definidor dos padrões web. Essa palestra vai apresentar o histórico da Web e sua evolução desde o seu surgimento, chegando até as novidades da versão 5 do HTML.


Ilustração e Tratamento de Imagens com Photoshop e Illustrator

Descubra as ferramentas mais sofisticadas para ilustração vetorial, criação de logos, embalagens, identidade visual do Adobe Illustrator e os recursos para tratamento de imagem, recorte, pintura digital e ajustes de cor utilizando o Adobe Photoshop.


O poder das Redes Sociais

Saiba como as Redes Sociais modificam o comportamento dos usuários da Web. Com o crescimento dos adeptos à Internet, entenda quais as principais redes, suas diferenças, cases, como as empresas se posicionam perante o crescimento dessas novas mídias e quais projeções para o futuro.


Novidades em Visual Studio

Conheça a melhor suite de desenvolvimento do mercado, bem como sua evolução ao longo dos tempos e a mais recente versão, o Visual Studio 2010! Aproveite para saber os caminhos de certificação na carreira de profissional Microsoft e prepare-se para um mercado de trabalho cada vez mais exigente.


Palestrantes do Road Show TI 2011

Confira o mini currículo dos palestrantes do Road Show TI 2011:


Adilson Aparecido Florentino

Cursou tecnólogo em processamento de dados no Mackenzie e se especializou em redes de computadores pela Fasp. É Instrutor Cisco, CCNA, CCDA, CCAI, CCNP desde no Senac-SP e professor universitário na Fatec, Cefetsp, Unicid, Fiap e Ibta. Consultor independente em projetos de rede e treinamento de empresas como Sabesp, Ericsson, Esi, CIMCorp e FasLane.

Ana Laura Gomes

É sócia fundadora da Emblema Idéias Visuais, que atua nas áreas de comunicação visual e webdesign. Ministra cursos e palestras dos softwares Dreamweaver, Flash, Fireworks e Corel, básico e avançado. Coordena as áreas de internet e computação gráfica para a gerência de desenvolvimento 2 do Senac-SP.

Brivaldo A. Marinho

Consultor, analista de negócios e pesquisador em tecnologia da informação. Doutorando em administração de empresas com ênfase em capacidades dinâmicas da tecnologia de informação na escola de administração de empresas de São Paulo (EAESP) da FGV. Possui mestrado em administração de empresas com ênfase no uso estratégico da tecnologia de Informação pela UFRN e bacharelado em engenharia eletrônica pela UFRN.

Carlinhos Cecconi

É analista de projetos do W3C Escritório Brasil. Foi chefe de gabinete do ITI - Instituto Nacional de Tecnologia da Informação, quando foi secretário do comitê técnico de implementação do software livre e do I planejamento estratégico de implementação de software livre no Governo Federal. Excelência em inovação na gestão pública.

Carlos Alberto Otero

É Microsoft Certified Professional desde 2000 e tem formação em cursos oficiais microsoft. Possui trabalhos em parcerias com a Inntecnet Consultoria, Tatá Consultancy Services, kA solucition Informática LTDA, Vox Sistemas Ltda, Índex Informática LTDA entre outras.

Daniel Marson Guedes

É Bacharel em ciência da computação pela Umesp-Piracicaba e possui MBA em estratégia de TI pelo Centro Universitário Senac, além da certificação ITIL. Atualmente é gerente de produto do Senac São Paulo na área de Infraestrutura de TI, desenvolvendo cursos de aperfeiçoamento, certificação, graduação e pós-graduação.

Fabiana GO

É consultora de softwares da linha de edição de imagem, design gráfico e soluções Acrobat PDF. Hoje presta consultoria para clientes, centros de treinamento e parceiros da Adobe Systems. Sua principal área de atuação é instrução e consultoria de softwares Adobe, foi a primeira profissional certificada como expert pela Adobe no Software Indesign CS2 na América Latina.

Fabio Jacob dos Santos

É formado em comunicação social, com 15 anos de experiência no mercado de pré-impressão e impressão offset e digital. Tem especialização em diagramação e fluxo de trabalhos na área gráfica e gerenciamento de documentação eletrônica. É também coordenador técnico da Afterweb Informática – centro de treinamento autorizado adobe -, e ministra treinamentos e consultorias de InDesign, Photoshop, Flash e Acrobat em todo o país.

Felipe Murta Mejias

Engenheiro metalúrgico, com experiência acadêmica como docente em gerencia de projetos e gerenciamento de custo e tempo. Trabalha como supervisor geral de qualidade e garantia na Delphi/Famar e como engenheiro de qualidade na Valeo Sistemas Automotivos.

Hamilton de Paula

Trabalha com desenvolvimento de software há mais de 15 anos. É tecnólogo em análise de sistemas da informação e possui as certificações Microsoft de MCTS e MCPD em Framework 2.0 e 4.0. É instrutor oficial certificado Microsoft e ministra treinamentos nos principais centros educacionais de São Paulo.

João Paulo Beraldinelli

É graduado em administração de empresas e especializado em gerenciamento de projetos pela USP.É gerente de projetos sênior no grupo Toty VS, tem 40 mil horas em gerenciamento de projetos, e atua como professor, consultor e palestrante.

Laercio Azevedo de Sá

Professor do curso Técnico em Informática do Senac. Atuo como consultor em diversas empresas na área de desenvolvimento de sistemas e análise de banco de dados. Certificado em Oracle, Adobe, Microsoft e HDI.

Luis Bechtold

Consultor da Adobe System Brasil, especialista em softwares para produção de vídeo digital, criação e integração de conteúdos multimídia. Ministra treinamentos, workshops e atualizações tecnológicas na área de vídeo digital. Formado em design de multimídia e processamento de dados.

Rafael Peregrino da Silva

É graduado e mestre em engenharia elétrica pela Unicamp. Atuou por cinco anos como professor convidado da Universidade Politécnica de Berlim, na Alemanha, onde realizou seu doutorado em engenharia biomédica. Fundou a Linux New Media do Brasil, editora responsável pela publicação da Linux Magazine no país.

Renato Bongiorno

É professor e coordenador de cursos na área de tecnologia da informação do Senac. Graduado em sistemas de informação com atuação direta na área de desenvolvimento web há mais de 8 anos. Certificado pela W3C Brasil nos cursos de Web Semântica - Open Data / HTML5.

Richard Marteli

Pós-graduado pela PUC-Camp no curso educação e gestão de pessoas, pós-graduado pela GV em administração da tecnologia da informação, graduado pela Fesp-SP como bacharel no curso de sociologia e política. É gestor das áreas de aplicativos, Internet e computação gráfica na gerência de desenvolvimento no Senac SP.

Sérgio Henrique Ferraz de Souza

É graduado em sistemas de informação pelo Centro Universitário Toledo de Araçatuba e pós-Graduado em desenvolvimento de software para web e computação ubíqua pela Ufscar. Atualmente faz parte do corpo docente do Senac Araçatuba, ministrando treinamentos na área de tecnologia da informação.

Vagner Diniz

É gerente do W3C Escritório Brasil, graduado em engenharia eletrônica, com especialização em administração de empresas pela FGV e em educação e cultura, pelo Instituto de Bossey, Universidade de Genebra, Suíça. 30 anos de experiência profissional na área de tecnologia da informação. Tem atuação profissional com foco em governo eletrônico.

Atenção: atualização do Avast bloqueia sites indevidamente

Lançada na manhã do dia 11 de abril, atualização do antivírus faz com que sites confiáveis sejam bloqueados pelos computadores.

Durante todo o dia de hoje (11 de abril de 2011), vários usuários reclamaram do antivírus Avast, por ele estar bloqueando uma enorme gama de sites que não deveriam ser considerados como infectados. Até mesmo o Baixaki foi atingido pelo problema, como pode ser visto nas imagens que ilustram este artigo.



Solucionando o problema

Poucas horas depois de constatado o problema, usuários começaram a relatar normalizações no sistema (o antivírus foi novamente atualizado e os erros foram corrigidos). Caso você utilize o Avast e ainda esteja enfrentando dificuldades em navegar pela internet, recomenda-se tentar atualizar o software manualmente (ou seja, não esperar pelas atualizações agendadas).

Leia mais no Baixaki: http://www.tecmundo.com.br/9559-atencao-atualizacao-do-avast-bloqueia-sites-indevidamente.htm

Kingston lança novos pendrives com sistemas ultra-seguros de proteção de dados

DT4000 e DTVPM oferecem segurança no armazenamento de dados e privacidade das informações.

 A Kingston anuncia dois novos pendrives à sua ampla linha de dispositivos USB: o DataTraveler 4000 e o DataTraveler Vault — Privacy Managed (DVTP-M). Entre outros diferenciais, o primeiro possui o FIPS 140-2 Nível 2, importante certificado de segurança emitido pelo NIST (Instituto Nacional de Normas e Tecnologia – órgão do Governo americano).

O segundo, produzido em parceria com a BlockMaster, oferece 100% de proteção aos dados armazenados – graças à criptografia AES de 256 bits – e um sistema de gerenciamento centralizado. Ambos são recomendados para empresas (e governos) por oferecerem segurança e confidencialidade das informações.

O DataTraveler 4000 está disponível nas capacidades de 2GB, 4GB, 8GB, 16GB e trabalha com velocidade de 18MB/s para leitura e 10MB/s para gravação. O produto oferece a possibilidade de criar senhas complexas e bloqueia o acesso após 10 tentativas de invasão, já que a chave criptografada é invalidada.

Revestido de titânio e com capa de aço inoxidável, é mais resistente a quedas e também à prova d’água. Sua configuração e manuseio são simples e não exigem supervisão do administrador ou instalação de aplicativos adicionais.

Com todas essas características, o produto conquistou a certificação FIPS 140-2, após um exigente processo de validação, que cumpre as regras federais impostas pelo NIST. “Esse certificado garante ao usuário a tranquilidade de ter sempre seguras as informações de sua empresa”, diz Osvaldo Codato, diretor geral da Kingston Brasil. Os preços variam de R$ 165,00 (2GB) a R$ 560,00 (16GB).

Já o DataTraveler Vault – Privacy Managed oferece taxa de transferência de dados de até 24MB/s para leitura e capacidades que vão de 2GB a 32GB. O equipamento é administrado pelo SafeConsole, sistema de gerenciamento de drive da BlockMaster, que permite ao usuário habilitar recursos específicos para o DTVP-M, como configurações de senhas e condições de uso, ativações de ferramentas de segurança, dentre outras funcionalidades.

O servidor do SafeConsole é acessado por meio de um browser padrão e pode reproduzir o conteúdo do diretório corporativo. O DTVP-M também se conecta à web para atualizações de configurações que sejam necessárias aos usuários de uma empresa. “Com essa configuração, podemos oferecer às empresas total controle de gerenciamento do USB”, afirma Codato. Feito com uma capa de alumínio robusta, ele resiste aos danos causados pela água.

Os novos produtos têm criptografia AES 256 bits por hardware, uma tecnologia patenteada e assegurada pela SPYRUS, empresa líder no desenvolvimento de criptografia avançada de hardware, autenticação digital e produtos de segurança de conteúdo. Os preços sugeridos vão de R$ 130,00 (2GB) a R$ 1.500,00 (32GB).

Leia mais no Baixaki: http://www.tecmundo.com.br/9552-kingston-lanca-novos-pendrives-com-sistemas-ultra-seguros-de-protecao-de-dados.htm

segunda-feira, 11 de abril de 2011

Cursos de Graduação com inscrições abertas - SENAC - SP

Campus Senac Santo Amaro - Nações Unidas

Tecnologia da Informação

Vestibular 2011 - 2º Semestre

Inscrições Abertas! - Informe-se

De 14/3 até 19/6/2011 estão abertas as inscrições para o Vestibular 2º Semestre de 2011 do Centro Universitário Senac. A prova será realizada no dia 2/7/2011, sábado, das 14 às 18 horas. O resultado será divulgado no dia 13/7 e as matrículas devem ser efetuadas nos dias 15 e 16 do mesmo mês. A taxa de inscrição é de R$ 80,00.


Bacharelado em Sistemas de Informação

O curso tem o objetivo de preparar profissionais para identificar as necessidades das organizações, criar e gerir soluções tecnológicas, desenvolver sistemas informatizados para organizar os fluxos de informação das empresas. Além disso, poderão analisar e propor aperfeiçoamento de sistemas já em funcionamento, gerenciar equipes de desenvolvimento e de produção e colocar em operação planos diretores de automação nos mais variados níveis.



Mercado de trabalho
 
O Bacharel em Sistemas de Informação poderá atuar no desenvolvimento de projetos de sistemas de informação, como especificador, desenvolvedor, analista de sistemas e programador.
 
Poderá, também, atuar em automação de processos empresariais, como integrador de sistemas, propositor de soluções tecnológicas que envolvam hardwares e softwares, analista de processos empresariais, formulador de projetos de reengenharia e planejador de planos diretores de automação de sistemas nos diversos níveis.

Saiba mais



Tecnologia em Análise e Desenvolvimento de Sistemas

Este curso tem o objetivo de formar profissionais aptos a atuar no entendimento das necessidades de informação das organizações (análise), definindo e desenvolvendo as soluções mais adequadas (desenvolvimento de sistemas). Para isso, pode-se tanto utilizar recursos internos das empresas (desenvolvimentos internos) quanto contratar serviços externos através de empresas especializadas.



Mercado de trabalho

O profissional formado pode atuar em análise, projeto, especificação, documentação, teste, implementação e manutenção dos sistemas computacionais de informação. Para tanto, utiliza os conhecimentos pertinentes, nos pilares técnico, organizacional e comportamental, voltados para análise e desenvolvimento eficientes e adequados de sistemas de informação.

Esse profissional atua em organizações de TI, seja em empresas prestadoras de serviços ou em departamentos internos que desenvolvam sistemas para as organizações.

Saiba mais



Tecnologia em Gestão da Tecnologia da Informação

A demanda por profissionais de Gestão da Tecnologia da Informação com foco em Serviços e Governança apresenta uma abrangência nacional e cada vez mais se torna uma exigência das organizações que prestam serviços na área de TI . O curso, desenvolvido em parceria com a IBM, tem como foco formar profissionais capazes de gerenciar, por meio de Técnicas, Modelos e Processos, os recursos de Tecnologia da Informação (TI) das organizações prestadoras de serviços, considerando os conceitos modernos da Ciência de Serviços.



Mercado de trabalho

Os profissionais com formação voltada para a Gestão da Tecnologia da Informação possuem um diferencial no mercado de TI, pois não estão restritos a uma formação que privilegia apenas as qualificações técnicas, mas também atendem as novas necessidades das organizações que buscam desenvolver a questão da qualidade na prestação dos seus serviços.

O profissional formado pelo Centro Universitário Senac poderá atuar na área de Serviços de TI, utilizando os conhecimentos pertinentes à Ciência de Serviços voltados para Gerência de Projetos, com foco em infra-estrutura (suporte e monitoração) e desenvolvimento. Poderá atuar também em organizações de TI, seja em empresas prestadoras de serviços ou em departamentos internos que realizam a Gestão de TI das diversas organizações.

Saiba mais


Tecnologia em Jogos Digitais

O Tecnólogo em Jogos Digitais atua no segmento de entretenimento digital, desenvolvendo produtos tais como: jogos educativos, de aventura, de ação, de simulação 2D e 3D, de marketing, entre outros gêneros. O mercado de entretenimento on-line demanda profissionais capazes de desenvolver jogos e sistemas interativos cada vez mais lúdicos.

A consolidação de áreas como educação a distância e marketing em meios digitais propõem a carência de profissionais que possam atender às necessidades específicas de produção que elas demandam. O curso visa formar desenvolvedores de jogos digitais e que saibam programar e acompanhar a produção de um jogo digital.



Mercado de trabalho

Internacional e sem fronteiras. Essas são as principais características do mercado de games. Há oportunidades de atuação nas áreas de entretenimento, propaganda e marketing, educação a distância e simuladores. Há ainda a possibilidade de trazer conceitos do desenvolvimento de jogos digitais para construir novas interfaces e formas de interação na internet e em outros sistemas interativos.


Saiba mais


Tecnologia em Redes de Computadores

O curso tem como objetivo formar profissionais com visão holística de redes. É dividido em quatro módulos: “Fundamentos de redes”, “Conectividade”, “Segurança da informação” e “Gestão de Redes”. O Centro Universitário Senac possui uma parceria com a Cisco Systems, e é hoje uma das maiores academias Cisco CCNA da América do Sul, preparando o aluno para a certificação Cisco CCNA, uma das principais do mercado.



Mercado de trabalho

O Tecnólogo em Redes de Computadores poderá atuar como desenvolvedor de soluções baseadas em redes, planejando e definindo a topologia dos recursos de comunicação de dados, projetando, implementando, protegendo e administrando redes locais e de longa distância, além de assegurar a gestão tecnológica alinhada com as necessidades de negócios, buscando a otimização dos recursos existentes e a garantia da qualidade dos serviços de rede prestados internamente à empresa e para clientes e fornecedores.

Saiba mais

quinta-feira, 7 de abril de 2011

Computador em forma de teclado chega às lojas em junho

Relançamento de modelo antigo conta com especificações modestas e visual retrô.

Você se lembra do Commodore 64? O modelo produzido durante a década de 1980 não foi muito difundido no Brasil, mas foi um sucesso mundial de vendas em seus 15 anos de comercialização. Na tentativa de repetir os bons números da época, a Commodore anunciou o relançamento do produto, com configurações compatíveis com computadores atuais, mas o mesmo visual retrô que consagrou o modelo.



Abreviado pela sigla C64, o computador doméstico lançado em 1982 despertou a curiosidade dos fãs de informática por concentrar todo o funcionamento da máquina dentro de um teclado convencional, eliminando a necessidade de uma CPU.

Confira as configurações do modelo mais básico de C64, que já está em pré-venda para ser entregue em junho e deve custar US$ 595:

•Processador dual-core Intel Atom D525 de 1.8GHz
•Placa de vídeo NVIDIA ION 2
•2GB de memória RAM
•Disco rígido de 160GB

O computador pode ter suas configurações incrementadas a partir de um valor bem maior na compra, passando a ter integração com Bluetooth e WiFi e até um leitor de Blu-ray. Além disso, a empresa Commodore vai colocar outro produto nas lojas ao mesmo tempo: o VIC-Slim, que possui a mesma funcionalidade do C64, mas conta com um visual mais moderno e custo de US$395.

Leia mais no Baixaki: http://www.tecmundo.com.br/9497-computador-em-forma-de-teclado-chega-as-lojas-em-junho.htm

O que é Tecnologia da Informação (TI)?

Introdução

No início, os computadores eram tidos apenas como "máquinas gigantes" que tornavam possível a automatização de determinadas tarefas em instituições de ensino/pesquisa, grandes empresas e nos meios governamentais. Com o avanço tecnológico, tais máquinas começaram a perder espaço para equipamentos cada vez menores, mais poderosos e mais confiáveis. Como se não bastasse, a evolução das telecomunicações permitiu que, aos poucos, os computadores passassem a se comunicar, mesmo estando em lugares muito distantes geograficamente.



Mas perceba que, desde as máquinas mais remotas e modestas até os computadores mais recentes e avançados, o trabalho com a informação sempre foi o centro de tudo. É por isso que a expressão Tecnologia da Informação (TI) é tão popular. Mas o que vem a ser isso?

Antes de tudo, a informação

A informação é um patrimônio, é algo que possui valor. Quando digital, não se trata apenas de um monte de bytes aglomerados, mas sim de um conjunto de dados classificados e organizados de forma que uma pessoa, uma instituição de ensino, uma empresa ou qualquer outra entidade possa utilizar em prol de algum objetivo.

A informação é tão importante que pode inclusive determinar a sobrevivência ou a descontinuidade das atividades de um negócio, por exemplo. E não é difícil entender o porquê. Basta imaginar o que aconteceria se uma instituição financeira perdesse todas as informações de seus clientes ou que uma pessoa poderia ficar rica da noite para o dia porque conseguiu descobrir uma informação valiosa analisando um grande volume de dados.

É por tamanha importância que, apesar de possível, muito dificilmente uma entidade de grande porte consegue perder suas informações, principalmente quando se trata de bancos, cadeias de lojas, companhias aéreas, instituições de pesquisas e afins. Por outro lado, se tem uma coisa que ocorre com bastante frequência é o uso inadequado de informações ou, ainda, a subutilização destas. É nesse ponto que a Tecnologia da Informação pode ajudar.

Leia mais: http://www.infowester.com/ti.php

Tecnologia USB 3.0

Introdução

A tecnologia USB (Universal Serial Bus) é sinônimo de comodidade e agilidade, afinal, é um padrão que permite a interconexão de dispositivos dos mais variados tipos. No entanto, cada vez mais surgem no mercado aparelhos que geram grandes volumes de dados e que, consequentemente, necessitam de maior velocidade na transmissão destes. É neste ponto que entra em cena o padrão USB 3.0 (também chamado de SuperSpeed USB), cujas principais características serão mostradas a seguir pelo InfoWester.



Por que o USB 3.0 foi criado?

A tecnologia USB surgiu no ano de 1994 e, desde então, foi passando por várias revisões. As mais populares são as versões 1.1 e 2.0, sendo esta última ainda bastante utilizada. A primeira é capaz de alcançar, no máximo, taxas de transmissão de 12 Mbps (megabits por segundo), enquanto que a segunda pode oferecer até 480 Mbps.

Como se percebe, o USB 2.0 consegue ser bem rápido, afinal, 480 Mbps correspondem a cerca de 60 megabytes por segundo. No entanto, acredite, a evolução da tecnologia está fazendo que velocidades muito maiores sejam necessárias.

Não é difícil entender o porquê: o número de conexões à internet de alta velocidade cresce rapidamente, o que faz com que as pessoas queiram consumir, por exemplo, vídeos, músicas, fotos e jogos em alta definição. Some a isso ao fato de ser cada vez mais comum o surgimento de dispositivos como smartphones e câmeras digitais que atendem a essas necessidades. A consequência não poderia ser outra: grandes volumes de dados nas mãos de um número cada vez maior de pessoas.

Com suas especificações finais anunciadas em novembro de 2008, o USB 3.0 surge para dar conta dessa e da demanda que está por surgir. É isso ou é perder espaço para tecnologias como o FireWire, por exemplo. Para isso, a novidade tem como principal característica a capacidade de oferecer taxas de transferência de dados de até 4,8 Gbps (gigabits por segundo). Mas não é só isso...

Leia mais em : http://www.infowester.com/usb30.php

Seagate lança HD externo com apenas 9 milímetros de espessura

HD externo é sinônimo de comodidade: você pode levar grandes volumes de dados para onde quiser, como álbuns de fotos ou uma coleção de filmes, por exemplo. O problema é que a maioria dos modelos de drives externos é relativamente grande, o que pode dificultar seu transporte em determinadas situações. É por esse motivo que a Seagate lançou o GoFlex Slim Performance Drive, um HD externo com apenas 9 milímetros de espessura.



O dispositivo conta com capacidade de 320 GB e trabalha a 7.400 RPM. Além disso, é compatível com a interface USB 3.0, embora funcione também com a já clássica especificação 2.0. Seu peso é de apenas 160 gramas. De acordo com a Seagate, o HD é acompanhado de um software de backup com recursos de criptografia.

Nos Estados Unidos, o GoFlex Slim tem preço sugerido de 99,99 dólares e conta com 3 anos de garantia. Não há informação de lançamento do produto no Brasil.

Fonte: http://www.infowester.com/noticias/seagate-lana-hd-externo-com-apenas-9-milmetros-de-espessura/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+InfowesterNoticias+%28InfoWester+Not%C3%ADcias%29

quarta-feira, 6 de abril de 2011

Como funcionam as diferentes memórias quando o computador está em uso

Conheça a trajetória que os dados percorrem no sistema e onde eles são armazenados para serem usados no futuro.

O computador é uma poderosa máquina de armazenamento de dados. Qualquer programa, página da internet ou arquivo aberto fica registrado de alguma forma, em algum local do aparelho. Assim como em nós usuários, a memória é uma das mais bem desenvolvidas funções do sistema.

Mas quando o assunto é a memória virtual, qual é a primeira – e às vezes única – coisa em que pensamos? Sem dúvidas, a RAM é o arquivo de dados mais famoso do sistema. É possível encontrar facilmente essa expressão registrada nas informações a respeito de um computador à venda ou nos requisitos para rodar um jogo ou software.



O que você pode não saber é que a RAM representa apenas um componente de uma série de sistemas responsáveis por acomodar todas as informações digitais necessárias sem perdê-las de vista.

Algumas dessas regiões são termos bastante utilizados no cotidiano da informática, até por usuários menos experientes: cache, ROM, HD, BIOS. Cada uma possui um papel específico e um momento certo para ser utilizada.

A quantidade de setores pode parecer exagerada, mas compensa. Se a máquina precisasse consultar apenas o disco rígido, por exemplo, ele teria que ser bem mais poderoso – e todo o processo seria muito lento.

Para compreender melhor o funcionamento do seu PC, vale a pena conhecer o caminho percorrido pelos dados e em que memórias eles podem se alojar para facilitar o trabalho do processador. O Tecmundo explica quais são e como agem essas memórias enquanto o aparelho está funcionando.

Leia mais no Baixaki: http://www.tecmundo.com.br/9415-como-funcionam-as-diferentes-memorias-quando-o-computador-esta-em-uso.htm

Como funciona uma impressora a laser?

Depois das impressoras matriciais e jato de tinta, chegou o momento de a tecnologia laser dominar o mundo dos documentos impressos. Saiba como funcionam estas impressoras.



Assim como tudo no ramo da tecnologia evolui com muita rapidez, as impressoras não são diferentes. As mais antigas funcionavam, basicamente, com a utilização de tintas, de modo que o aparelho possuía cartuchos preto e colorido e equilibrava as cores conforme o necessário. Entretanto, com o decorrer do tempo surgiram novas impressoras e, obviamente, quem ficou muito confuso foi o consumidor.

A aparição das primeiras impressoras a laser foi há algum tempo. Com preços exorbitantes e promessas de uma rapidez fantástica, as impressoras que utilizavam laser deveriam ser os novos produtos para impressão. O tempo passou e as impressoras a laser não dominaram o mercado, aliás, elas tiveram de dividi-lo com as de jato de tinta. Hoje vamos mostrar um pouco sobre o funcionamento das impressoras a laser e o como elas conseguem ser tão rápidas.

Leia mais no Baixaki: http://www.tecmundo.com.br/3066-como-funciona-uma-impressora-a-laser-.htm

Como funcionam os sistemas de refrigeração a líquido

Conheça os componentes destes sistemas e entenda por que eles são tão eficientes para manter baixas temperaturas.

Conhecidos por muitos como “coolers de água” ou “sistemas de resfriamento à base d’água”, os sistemas de refrigeração a líquido são produtos raros. Não que as fabricantes não tenham interesse ou mercado para comercializar este tipo de produto, mas pelo simples motivo de que, ao menos no Brasil, este tipo de tecnologia chega com valores abusivos.



Aos que nunca sequer ouviram falar neste tipo de sistema de refrigeração, vale a pena fazer uma pausa antes de entrarmos no quesito funcionamento. Os “coolers à base d’água” são componentes essenciais em computadores em que a temperatura do processador é elevada. Vale frisar que a palavra “elevada” não é aplicável a computadores em que a temperatura está acima do normal por motivos de desgaste da ventoinha ou desgaste da pasta térmica.

Leia mais no Baixaki: http://www.tecmundo.com.br/9204-como-funcionam-os-sistemas-de-refrigeracao-a-liquido.htm

O preço da informática: o computador já custou mais que um carro

Confira como a evolução da informática colaborou para que os preços pudessem chegar aos níveis populares de hoje.



Quando chegamos a algum mercado ou loja especializada em computadores e nos deparamos com valores inferiores aos R$ 2 mil, fica difícil acreditar que cerca de 15 anos antes era impossível comprar uma máquina com configurações aceitáveis por menos do dobro deste valor.

Para sermos mais exatos, os R$ 4 mil de 1996 equivalem a R$ 12.691 de hoje, conforme atualização monetária com base na taxa inflacionária (índice INPC). Ou seja, a redução no valor não foi de apenas 50%, mas de 85%. Mas por que será que os computadores custavam tanto se não possuíam a mesma potência de hoje?

Leia mais no Baixaki: http://www.tecmundo.com.br/9210-o-preco-da-informatica-o-computador-ja-custou-mais-que-um-carro.htm

Anatel libera prefixo de telefone fixo para celular em São Paulo


Medida permite que números dos celulares na região metropolitana de São Paulo poderão começar com o prefixo "5".

Reuters. Cesar Bianconi - Os números dos celulares na região metropolitana de São Paulo poderão começar com o prefixo "5", até então usado para telefones fixos, a partir de 4 de abril, informou nesta quarta-feira a Agência Nacional de Telecomunicações (Anatel).

Segundo o órgão regulador, a medida eleva a capacidade de numeração da telefonia móvel em 6,9 milhões de combinações na área com DDD 11.

Assim, o total de celulares possíveis na área 11 passará de 37 milhões para 43,9 milhões de linhas móveis. Em janeiro deste ano, a região metropolitana de São Paulo tinha mais de 28 milhões de assinantes de telefonia móvel.

O prefixo "5" continuará a ser usado em telefones fixos. De acordo com a Anatel, quando ocorrer uma chamada para um celular dessa série, as operadoras deverão informar se é uma ligação para telefone móvel por meio de mensagem.

O compartilhamento do prefixo "5" por linhas fixas e móveis será mantido até a ampliação em um dígito no número dos telefones celulares, prevista para acontecer até o final de 2012.

Leia mais no Baixaki: http://www.tecmundo.com.br/9277-anatel-libera-prefixo-de-telefone-fixo-para-celular-em-sao-paulo.htm

Por que as baterias de íon-lítio demoram mais para carregar no final?

Conheça os dois estágios de carregamento das aclamadas baterias de polímeros de íons de lítio.

Já reparou que, quando seu celular ou notebook está carregando, a parte final é que mais demora? Parece que até 70% do carregamento é realizado com rapidez, mas depois disso o processo começa a ficar lento. Isso não acontecia com as baterias mais antigas, mas por que será que essa lentidão é tão boa para elas?

As baterias de polímeros de íons de lítio são as mais utilizadas hoje, podendo ser encontradas na maioria absoluta dos equipamentos eletrônicos. Desde os pequenos iPod Shuffle, passando por iPodsTouch, Zunes, smartphones, tablets e notebooks, os fabricantes optam pela utilização de baterias deste tipo por uma série de fatores.



Por que usá-las?

Os polímeros de íons de lítio garantem muito mais densidade de energia, ou seja, baterias deste tipo possuem potencial para cargas maiores. Outra grande vantagem é o fato de as baterias de lítio não “viciarem”, por isso, é possível carregar apenas uma parte da bateria antes de desplugá-la da tomada.

Apesar de a densidade energética ser muito maior, a do material é baixa. Isso acontece porque o lítio é o metal mais leve que pode ser encontrado, o que garante menos peso na peça. É por este motivo que elas podem ser aplicadas em portáteis: ocupam pouco espaço e armazenam muita energia (aprenda a aproveitá-las ao máximo).

Leia mais no Baixaki: http://www.tecmundo.com.br/9287-por-que-as-baterias-de-ion-litio-demoram-mais-para-carregar-no-final-.htm

Métodos bizarros para consertar computadores e outros eletrônicos

Casca de banana, geladeira e forno entram em ação na tentativa de reanimar gadgets.

Os aparelhos eletrônicos estão cada vez mais presentes no nosso dia a dia. Utilizamos os mais variados gadgets para nos comunicar, como ferramentas de trabalho e recursos de entretenimento. Com o tempo, é comum que os componentes desses dispositivos sofram desgastes que acabam comprometendo seu funcionamento.



Não poder acessar os dados do disco de armazenamento, iniciar a placa gráfica do computador ou rodar os jogos colecionados ao longo dos anos são motivos de desespero. Quem já passou por alguma dessas situações sabe do que estamos falando.

Nesses momentos de aflição, a criatividade do ser humano se sobressai. Conheça algumas alternativas bizarras para tentar fazer com que computadores, video games, notebooks, entre outros aparelhos voltem a funcionar.

Ressaltamos que todas as técnicas abaixo apresentadas não possuem garantia que sempre terão efetividade. Estes métodos são algumas saídas que podem ajudá-lo a recuperar informações e “tapar o buraco” até que se possa adquirir um novo componente ou levar o computador à assistência técnica especializada.

ATENÇÃO! Não tente isso em casa, o Baixaki não se responsabiliza pelas consequências.

Com as devidas observações explicitadas, chegou a hora de você preparar seu kit de ferramentas inusitadas para consertar seus eletrônicos.

Leia mais no Baixaki: http://www.tecmundo.com.br/9291-metodos-bizarros-para-consertar-computadores-e-outros-eletronicos.htm

Nova placa NVIDIA GeForce GTX 590 é anunciada oficialmente

A mais potente placa já fabricada pela NVIDIA é silenciosa, e deve esquentar a briga pela preferência dos usuários que procuram alto desempenho.



Agora é oficial! A NVIDIA acaba de lançar sua nova placa de vídeo de alta performance para gamers, a mais poderosa apresentada até agora pela empresa. A GTX 590 chega para bater de frente com a Radeon HD 6990 da AMD, lançada há duas semanas, e apresenta características que certamente chamam a atenção dos entusiastas.

O lançamento contou inclusive com um vídeo de apresentação da nova placa, mostrando como ela funciona em um sistema completo. Dessa forma, os usuários podem conhecer todos os detalhes da temperatura e desempenho em relação a outros modelos da marca.



Leia mais no Baixaki: http://www.tecmundo.com.br/9294-nova-placa-nvidia-geforce-gtx-590-e-anunciada-oficialmente.htm

A evolução dos navegadores: Mozilla Firefox

Relembre a história do Firefox e entenda como o browser da Fundação Mozilla se tornou um dos principais navegadores da web.

O dia 9 de novembro de 2004 pode não trazer nenhum significado especial para você. Contudo, a data marca o lançamento de um dos produtos mais importantes da história da internet e que você, certamente, mesmo não sendo um usuário dele, já deve tê-lo utilizado ao menos um vez: o Mozilla Firefox.



O navegador gratuito mantido pela Fundação Mozilla aos poucos se firmou como uma opção relevante para os usuários. A fatia de mercado que, até então, era de praticamente 100% para o Internet Explorer, hoje ganhou outros contornos. O Firefox é hoje o segundo colocado na preferência do público e, a cada nova versão, aumenta a sua participação no mercado.

Segundo as pesquisas internacionais mais recentes, o Mozilla Firefox hoje é o navegador preferido de 29% dos usuários. O Internet Explorer segue em primeiro, mas com apenas 43,5%. Google Chrome, com 13,89%, Safari, com 6,18%, e Opera, com 2,74%, também apresentam crescimento na preferência do público.

No Brasil, a utilização do Firefox é praticamente a mesma. Levando-se em consideração os usuários que acessam o Baixaki, cerca de 27% entram no site navegando com o Mozilla Firefox. Na Europa, uma pesquisa publicada em janeiro deste ano mostrou o Firefox na liderança, com 37,9% da preferência do público, fato que comprova a sua força.

Nesta semana, finalmente a versão 4.0 do navegador foi disponibilizada para o público. Em apenas três horas o browser foi baixado 1 milhão de vezes. O recorde anterior pertencia ao Internet Explorer, baixado 2,4 milhões de vezes em 24 horas.

Para marcar a data e demonstrar todo o seu poderio, a Fundação Mozilla montou um hotsite com um contador, separado por regiões, mostrando em tempo real quantas vezes o navegador é baixado. Os downloads não param e é bem provável que, nos próximos dias, novos recordes sejam quebrados.

Leia mais no Baixaki: http://www.tecmundo.com.br/9325-a-evolucao-dos-navegadores-mozilla-firefox.htm

7 Coisas que você não sabia sobre vírus

Conheça um pouco mais sobre o intrigante universo dos vírus e entenda por que todos devem se proteger dessas pragas.



Você se considera um verdadeiro mestre em segurança digital? Mesmo que a resposta seja “sim”, há muito sobre vírus e outros malwares (clique aqui e saiba tudo sobre esse e outros termos) que pouca gente conhece. Por isso, está na hora de conferir este artigo que o Tecmundo preparou para explicar a você, um pouco mais sobre esse curioso (e perigoso) mundo das pragas virtuais.

Confira as nossas dicas para conhecer um pouco mais sobre os arquivos maliciosos e saiba também que nem sempre basta possuir um antivírus atualizado e um firewall poderoso para estar completamente livre de ameaças.

Leia mais no Baixaki: http://www.tecmundo.com.br/9465-7-coisas-que-voce-nao-sabia-sobre-virus.htm

A evolução dos computadores

Você sabia que computadores já chegaram a pesar 30 toneladas e custar 2 milhões de dólares? Conheça mais sobre a história da informática.



Não é segredo que o seu computador atual é fruto de uma evolução que levou décadas para chegar aonde está – e ainda está muito longe de chegar ao seu final. Se pensarmos que cerca de dez anos atrás os processadores ainda nem conheciam os núcleos múltiplos, imaginar as máquinas que inauguraram a informática é uma tarefa ainda mais complicada.

Você sabia que no início da década de 1950 já existiam computadores? Logicamente eles não se apareciam nem um pouco com o que temos hoje, mas já realizavam alguns cálculos complexos em pouquíssimo tempo. Nesses 60 anos, elementos desapareceram, componentes foram criados e parece até que estamos falando de assuntos totalmente desconexos.

Então prepare-se para conhecer um pouco mais sobre essa magnífica história. Para facilitar a leitura, atendemos às divisões de alguns autores especializados no assunto e separamos a história da informática em gerações. Agora aproveite para aprender mais ou para conhecer a importante evolução dos computadores.

Leia mais no Baixaki: http://www.tecmundo.com.br/9421-a-evolucao-dos-computadores.htm

IEEE aprova padrão 802.16m para próxima geração da WiMAX

Novo padrão está em desenvolvimento há mais de quatro anos e oferece downloads a mais de 300 Mbps.



O Institute of Electrical and Electronics Engineers aprovou a norma IEEE 802.16m que atualiza o padrão WiMAX, dando o primeiro passo legal para a nova geração dessa rede que é uma espécie de Wi-Fi amplificado, capaz de cobrir longas distâncias e oferecer alta velocidade. O novo padrão, conhecido como WirelessMAN-Advanced ou WiMAX 2, oferecerá velocidades de download de mais de 300 Mbps.

A atualização da rede surge em um contexto em que a maioria das operadoras do mundo já assumiu compromisso com a rede 4G LTE (Long-Term Evolution), semelhante à WiMAX, porém, com padronização tecnológica diferente. Durante a CEATAC, em outubro de 2010 no Japão, a Samsung demonstrou uma versão provisória da WiMAX 2 e alcançou velocidade de 330 Mbps. Para o usuário final, contudo, a velocidade máxima de download deve chegar a 100 Mbps.

A nova WiMAX foi aprovada na última década, bem antes da LTE, e, no ano passado, foi reconhecida como uma rede 4G pela ITU (sigla em inglês da União Internacional de Telecomunicações). Porém, a LTE é mais usada pela indústria, inclusive pela Clearwire, maior fornecedora de rede WiMAX do mundo. A rede LTE-Advanced, uma “versão final” da LTE, transmitirá dados a 1 Gbps e tem sua aprovação apoiada por inúmeros fabricantes.

Leia mais: http://www.tecmundo.com.br/9417-ieee-aprova-padrao-802-16m-para-proxima-geracao-da-wimax.htm

AMD lança Radeon HD 6790 em abril

Companhia não perde tempo e anuncia a concorrente direta da GeForce GTX 550 Ti.

A empresa AMD já prepara o lançamento de sua próxima placa de vídeo. Destinada a jogos não tão poderosos ou computadores que não pretender rodar games exigindo o máximo de um processador, a Radeon HD 6790 chega às lojas em 5 de abril.

O preço do produto não deve fugir dos 150 dólares já anunciados para a GeForce GTX 550 Ti , que já está no mercado desde a metade março e deve ser a grande concorrente da placa gráfica da AMD.



Confira os dados técnicos da Radeon HD 6790:

•40 unidades de textura;
•32 unidades de ROP;
•10 multiprocessadores streaming;
•1 GB de memória GDDR5
•Bandwidh total de 134,4 GBs por segundo;
•Clock de 840 MHz na unidade de processamento gráfico;
•Clock de memória de 4200 MHz;
•TDP (consumo) de 150 W.

A Radeon HD 6790 é baseada no chip Barts, o mesmo utilizado em modelos como a HD 6850 e HD 6870. Ela possui ainda um desempenho menor que placas similares da empresa, mas apresenta um consumo menor de energia.

Leia mais: http://www.tecmundo.com.br/9361-amd-lanca-radeon-hd-6790-em-abril.htm

Ciência da Computação, Engenharia da Computação ou Análise e Desenvolvimento de Sistemas: que curso eu escolho?

Saiba um pouco mais sobre os cursos:

Bacharelado em Ciência da Computação
Engenharia da Computação
Tecnologia em Análise e Desenvolvimento de Sistemas



Embora haja diferença entre os cursos de graduação voltados para a área de informática, aos olhos de quem não conhece muito, tudo parece exatamente a mesma coisa. Então, na hora de se candidatar para uma vaga na universidade, não é incomum surgirem dúvidas sobre qual das graduações escolher.

Mesmo que tudo possa parecer semelhante, já que a área de estudo é idêntica, cada um dos cursos tem seu foco e sua metodologia de ensino. Abaixo estão as principais diferenças (e semelhanças), entre cada um deles.

Leia mais: http://www.tecmundo.com.br/9351-ciencia-da-computacao-engenharia-da-computacao-ou-analise-e-desenvolvimento-de-sistemas-que-curso-eu-escolho-.htm