sexta-feira, 2 de dezembro de 2011

Mapa revela nomes e datas dos próximos processadores da Intel

Os modelos da geração Ivy Bridge serão lançados apenas a partir de abril.

Dias depois do vazamento das especificações dos principais processadores da Intel Ivy Bridge, que serão lançados em 2012, a empresa publicou o tradicional roadmap, o mapa de lançamentos e desempenho que detalha a estratégia de mercado da companhia para o próximo ano.



A imagem mostra que não teremos nenhuma surpresa em dezembro, mês dominado pelos processadores da geração Sandy Bridge e Sandy Bridge-E. A surpresa está no lançamento da Ivy Bridge, que vai suceder os produtos atuais: prevista para março de 2012, a linha só dará as caras a partir de abril. Os primeiros serão os modelos 3570K, 3450 e 3550 (todos core i5), além do 3770 e 3770K (de core i7 e melhor desempenho).



Os processadores de core i3 também tiveram nome e datas reveladas. Outro detalhe é a ausência de um Ivy Bridge na categoria “Extreme” de desempenho, ao menos em 2012. Apesar da confirmação, as datas não são definitivas: a ainda Intel pode atrasar ou adiantar lançamentos, de acordo com o andamento das vendas ou da produção.

Leia mais em: http://www.tecmundo.com.br/processadores/16154-mapa-revela-nomes-e-datas-dos-proximos-processadores-da-intel.htm

Conheça o mapa da qualidade da internet no Brasil

Mapa permite visualizar a distribuição e qualidade da internet em todo o país.


O CGI (Comitê Gestor de Internet do Brasil) divulgou um mapa que identifica a qualidade da conexão à internet no Brasil. Por meio dele, é possível visualizar as diferenças de velocidade entre todas as regiões do país.

A medição foi feita graças aos dados obtidos pelo Simet (Sistema de Medição de Tráfego de Última Milha). O órgão contou com a colaboração de mais de 600 mil pessoas que acessaram o serviço e disponibilizaram as informações a respeito de sua conexão.

Os pontos de internet estão todos identificados por bolinhas coloridas; as conexões vermelhas representam velocidades menores, entre 100 kbps e 500 kbps, enquanto que as verdes ilustram velocidade acima dos 2200 kbps. Os resultados obtidos não surpreendem e mostram que as conexões mais rápidas estão concentradas principalmente nas grandes cidades do Sul e Sudeste do Brasil.

Quem quiser pode entrar no site do serviço e visualizar outras informações, como o desempenho da internet em sua rua. Para isso, basta digitar o endereço do lugar desejado na própria página do Simet.

Leia mais em: http://www.tecmundo.com.br/conexao/16163-conheca-o-mapa-da-qualidade-da-internet-no-brasil.htm

sexta-feira, 4 de novembro de 2011

The Windows 8 Task Manager

We are really excited to share some of the improvements we are making to the Task Manager in Windows 8. Task Manager is one of the most widely used apps, and it has a long history. It showed up in early versions of Windows as a simple utility to close and switch between programs, and has had functionality added to it through several releases to make it what it is today.



Leia matéria completa aqui: http://blogs.msdn.com/b/b8/archive/2011/10/13/the-windows-8-task-manager.aspx

segunda-feira, 22 de agosto de 2011

Feira Guia do Estudante 2011 - NÃO PERCAM!!!



Quando?
26, 27 e 28 de agosto (sexta, sábado e domingo) Das 9h às 19h

Onde?
Expo Center Norte - Pavilhão Amarelo Av. Otto Baumgart, 1000 Vila Guilherme CEP 02055-000 São Paulo - SP.

Como?
Tietê é a estação de metrô mais próxima.

Transporte gratuito: Vans identificadas levarão os visitantes da estação de metrô Tietê para Expo Center Norte - Pav. Amarelo das 8h às 20h, a cada 15 minutos.

O Que é?

Criada em 2006, a Feira Guia do Estudante reúne a cada ano um grande número de estudantes em busca de informações sobre cursos superiores, universidades, carreiras e mercado de trabalho.

A última edição, realizada em agosto de 2010 no Pavilhão amarelo do Expo Center Norte, bateu recorde de público com mais de 35 mil presentes. Palestras, gincanas, games, atividades práticas, simulados e testes profissionais proporcionaram aos participantes informações privilegiadas dobre a vida acadêmica, além de ajuda-los nas suas escolhas profissionais.

Com o sucesso desta edição, a Feira firmou-se como a maior referência para estudantes em um dos períodos mais críticos da vida: o momento de escolher o melhor caminho para o futuro.

Por que ir?
Sabemos que investir numa carreira é uma tarefa complicada. Muitas são as dúvidas que pairam na cabeça dos estudantes na hora de escolher a melhor direção.

A vontade de fazer algo que se goste, o retorno financeiro, a opinião dos pais e amigos interferem, e muito, na escolha de uma profissão. Para quem está nessa situação, enlouquecido às vésperas do vestibular e ainda não escolheu uma carreira, pronto! Temos o lugar certo para esclarecer suas dúvidas!

Mais informações: http://guiadoestudante.abril.com.br/feira-do-estudante/sao-paulo/index.shtml

terça-feira, 9 de agosto de 2011

VAs, Watts, fator de potência e PFC

Por Carlos E. Morimoto em 20 de julho de 2011 às 14h46

Ao comprar um nobreak (ou um estabilizador), a capacidade é quase sempre informada em VA (Volt-Ampere) e não em watts. Em teoria, um nobreak de 600 VA seria capaz de suportar uma carga de 600 watts, mas na prática ele acaba mal conseguindo manter um PC que consome 400. Se você realmente ligasse um PC que consumisse 600 watts, ele desligaria (ou queimaria!) quase que instantaneamente.

Essa diferença ocorre por que a capacidade em VA é igual ao fornecimento em watts apenas em situações onde são ligados dispositivos com carga 100% resistiva, como é o caso de lâmpadas incandescentes e aquecedores. Sempre que são incluídos componentes indutivos ou capacitivos, como no caso dos PCs e aparelhos eletrônicos em geral, a capacidade em watts é calculada multiplicando a capacidade em VA pelo fator de potência da carga, sendo que a maioria das fontes de alimentação trabalha com fator de potência de 0.65 ou 0.7.

Isso significa que um estabilizador de 600 VA suportaria, em teoria, um PC que consumisse 400 watts, utilizando uma fonte de alimentação com fator de potência de 0.65, por exemplo.

Como é sempre bom trabalhar com uma boa margem de segurança, uma boa regra para calcular a capacidade "real" em watts é dividir a capacidade em VA por 2. Assim, um nobreak de 600 VA suportaria um PC com consumo total de 300 watts com uma boa margem.

É importante não confundir "fator de potência" com "eficiência", que é outra coisa completamente diferente. O fator de potência é simplesmente a diferença entre o consumo aparente (medido em VA) e o consumo real (medido em watts), enquanto a eficiência indica a percentagem de energia que é desperdiçada pela fonte na forma de calor. Uma fonte com eficiência de 66% desperdiça 1 watt de energia para cada 2 watts consumidos pelo PC, enquanto uma fonte com 80% de eficiência desperdiça apenas 1 watts para cada 4 watts consumidos.

De alguns anos para cá, estamos assistindo à popularização das fontes de alimentação com PFC ("Power Factor Correction", ou "correção do fator de potência") que reduz a diferença, fazendo com que o fator de potência seja mais próximo de 1. Na verdade, é impossível que uma fonte trabalhe com fator de potência "1" (o que seria a perfeição), mas algumas fontes com PFC ativo chegam muito perto disso, oferecendo um fator de potência próximo de 0.99.

Usar uma fonte de alimentação com PFC ativo oferece poucas vantagens diretas aqui no Brasil, onde pagamos por watt-hora consumido, independentemente da carga indutiva, mas nos traz algumas vantagens indiretas importantes.

A primeira delas é que ao usar uma fonte com PFC, o consumo em VA fica muito próximo do consumo real, em watts, de forma que você não precisa mais superdimensionar a capacidade do nobreak (caso utilizado), o que pode representar uma boa economia, já que um nobreak de 600 VA custa muito menos do que um de 1.2 kVA, por exemplo. A mesma regra também se aplica aos estabilizadores (caso você ainda utilize um), mas não faz diferença no caso dos filtros de linha, que são dispositivos passivos.

Outra pequena vantagem é que o circuito de PFC isola parcialmente os demais circuitos da fonte da rede elétrica, o que torna a fonte menos susceptível a variações de tensão e reduz a possibilidade de componentes do PC serem queimados por causa de picos de tensão. Ou seja, embora esta não seja sua função, o circuito de PFC acaba servindo como um dispositivo adicional de proteção.

O PFC em si não tem relação direta com a eficiência da fonte, já que consiste apenas em um estágio adicional na entrada do circuito, mas, como se trata de um circuito relativamente caro, os fabricantes, via de regra, aproveitam a inclusão do PFC para melhorar também outros circuitos da fonte, resultando em fontes mais eficientes, ou seja, que desperdiçam menos energia na forma de calor.

A maioria das fontes genéricas trabalham com uma eficiência de 70%, 65% ou, em muitos casos, até mesmo 60%. Isso significa que para cada 100 watts consumidos, a fonte fornece apenas 60, 65 ou 70 watts para o PC, o que é um grande desperdício. Elas, via de regra, também não utilizam PFC, já que ele é um circuito relativamente caro.

Salvo poucas exceções, apenas as fontes com 80% ou mais de eficiência incluem circuitos de PFC, já que o gasto adicional só é justificável em fontes a partir de um certo calibre. Muitos modelos atingem a marca dos 85% de eficiência, o que representa uma economia significativa na conta de luz.



Um PC cujos componentes internos consumam 200 watts-hora em média (sem contar o monitor, já que ele não é alimentado pela fonte de alimentação), acabaria consumindo 307 watts-hora se fosse usada uma fonte com 65% de eficiência. Ao mudar para uma fonte com 80% de eficiência, o consumo cairia para apenas 250 watts, o que, em um PC que fique ligado 12 horas por dia, representaria uma economia anual de 102 reais. O menor consumo também aumenta a autonomia do nobreak, já que, com menos carga, as baterias durarão mais tempo. Isso pode levar a outras economias, já que reduz a necessidade de usar baterias externas, ou de usar um nobreak de maior capacidade.

Vamos então a uma explicação um pouco mais aprofundada sobre o PFC:

Como bem sabemos, a rede elétrica utiliza corrente alternada, que opera a uma freqüência de 60 Hz (50 Hz em muitos países da Europa). A fonte tem a função de transformar a corrente alternada em corrente contínua e entregá-la aos componentes do PC. Além da energia realmente consumida pelo equipamento, medida em watts (chamada de potência real), temos a potência reativa (medida em VA), que é exigida pela fonte no início de cada ciclo e rapidamente devolvida ao sistema, repetidamente. Uma fonte que trabalhe com um fator de potência de 0.65, pode consumir 200 watts de potência real e mais 100 de potência reativa, por exemplo.

Alguns tipos de aparelhos, como por exemplo algumas lâmpadas de emergência baratas chegam a trabalhar com um fator de potência de 0.12 ou 0.15, ou seja, possuem um consumo em VA até 7 vezes maior do que o consumo real, em watts!

A rede elétrica (ou o nobreak onde o micro está ligado) precisa ser dimensionado para oferecer a soma da potência real e da potência reativa, por isso seria necessário usar um nobreak de no mínimo 300 VA (sem contar a margem de segurança) para alimentar o PC do exemplo anterior, mesmo que na verdade ele consuma apenas 200 watts.

Naturalmente, o vai e vem de corrente causada pela potência reativa causa uma grande perda de energia, parte dela dentro da própria fonte (o que aumenta o aquecimento) e parte dela nos demais pontos da rede elétrica, que causam prejuízos para a empresa responsável pela geração e transmissão.

O PFC é um circuito adicional, colocado entre a rede elétrica e os demais circuitos da fonte, que tem a função de reduzir a potência reativa, minimizando o problema. Existem dois tipos de circuitos de PFC: passivos e ativos. Os circuitos de PC passivos são os mais simples, compostos basicamente por um conjunto adicional de indutores e podem ser encontrados até mesmo em algumas fontes baratas. Ela melhora o fator de potência da fonte, elevando-o para até 80 ou 85%, mas não faz muito com relação à eficiência da fonte, que (se não forem tomadas outras medidas) continua sendo baixa.



Os circuitos de PC ativos, por sua vez, são compostos por componentes eletrônicos e são encontrados exclusivamente nas fontes mais caras. Eles elevam o fator de potência para 95 ou até mesmo 99% e seu uso é quase sempre combinado com outras melhorias no projeto, que também melhoram a eficiência da fonte. Salvo poucas exceções, todas as fontes com 75% de eficiência ou mais utilizam PFC ativo. A presença do PFC ativo é sempre uma informação divulgada à exaustão pelos fabricantes (veja um exemplo na foto a seguir), por isso se a fonte não traz a informação estampada em algum lugar visível nas especificações, você pode ter certeza de que trata-se de uma fonte com PFC passivo, ou sem PFC.



Menção do uso do circuito de PFC ativo nas especificações da fonte

Leia Mais: http://www.hardware.com.br/dicas/va-watt-pfc.html

domingo, 7 de agosto de 2011

Problemas de energia – a ameaça, a causa e o efeito em sua rede!

Quando sua organização passa por uma anomalia de energia, seu primeiro instinto é provavelmente procurar um dicionário. Surtos, picos, blecautes, blecautes parciais e qualquer outro "aute" fazem você coçar a cabeça.

A realidade é que vivemos em uma era de grande inovação tecnológica. As possibilidades são de que uma das situações abaixo aconteceu com você.

Os tipos mais comuns de problemas são:


Afundamentos de Tensão

A ameaça:

Um afundamento de tensão é um declínio no nível da tensão. Também conhecidos como "blecautes parciais", os afundamentos são o problema de energia mais comum.

A causa:

Afundamentos de tensão podem ser causados… localmente pelas exigências iniciais de dispositivos elétricos como motores, compressores e elevadores. Afundamentos de tensão também podem ocorrer durante períodos de grande uso de eletricidade como, por exemplo, durante uma onda de calor.

O efeito:

Afundamentos de tensão são frequentemente a causa de falhas "inexplicadas" nos computadores como falhas no sistema, teclados travados e perda de dados. Os afundamentos de tensão também podem reduzir a eficiência e o tempo de vida de motores elétricos.


Blecautes

A ameaça:

Um blecaute é uma perda total de energia.

A causa:

Beclautes são causados pela demanda excessiva na rede elétrica, um ato da natureza como raios ou um terremoto, ou um acidente humano como a batida de um carro em um poste de energia ou uma retroescavadeira cavando no lugar errado.

O efeito:

É claro que um blecaute pára tudo. Você também perde dados não salvos armazenados na RAM e pode até mesmo perder todo o conteúdo do seu disco rígido.


Picos

A ameaça:

Um pico, também chamado de impulso, é um crescimento instantâneo dramático na voltagem.

A causa:

Um pico é geralmente causado por um relâmpago nas proximidades, mas também pode ocorrer quando a energia é restabelecida após um blecaute.

O efeito:

Um pico pode danificar ou destruir completamente componentes elétricos e também causar perda de dados.


Surtos

A ameaça:

Um surto é um aumento na voltagem que dura pelo menos 1/120 de um segundo.

A causa:

Quando equipamentos de alta potência como, por exemplo, um ar-condicionado é desligado, a sobretensão é dissipada pela linha de alta tensão causando um surto.

O efeito:

Surtos estressam componentes eletrônicos delicados fazendo com que se desgastem antes do tempo.


Ruído

A ameaça:

O ruído elétrico, mais tecnicamente chamado de interferência eletromagnética (EMI) e interferência de rádio freqüência (RFI), interrompe a onda senoidal suave esperada da energia elétrica.

A causa:

O ruído tem muitas causas inclusive relâmpagos nas proximidades, comutação de carga, equipamento industrial e transmissores de rádio. Pode ser intermitente ou crônico.

O efeito:

O ruído introduz erros em programas e arquivos de dados.


Qualquer rede complexa está vulnerável à falha. Aprender qual é o problema com a energia, por que aconteceu e como influencia a sua rede pode lhe ajudar a monitorar seu equipamento de forma mais eficiente.

Fonte: http://www.blackbox.com.br/

Qualidade de Conexões ADSL

Vi em alguns sites os parâmetros de atenuação e ruído de conexões via ADSL. Se você está passando por problemas de ruído ou a conexão cai repentinamente, verifique estes dois parâmetros na interface web do modem. A atenuação (Attenuation) é dependente da distância entre os modems (loop loss), quanto maior a distância, maior é a atenuação e menor é a velocidade. Já o ruído (SNR Margin) é dependente do acoplamento dos conectores, interferência e falta de isolamento da linha. Quanto menor, pior é a velocidade. Veja os valores:

SNR Margin - Relação Sinal ruído:

- 5db ou menos = ruim, impossível sincronia, quedas frequentes

- 8db-13db = regular

- 14db-22db = muito bom

- 23db-28db = excelente

- 29db-35db = raro


Atenuação (idealmente < 12 dB):

0 - 19dB = excelente,cabeamento excelente, bem próximo da central

20-30dB = muito bom

30-40dB = bom

40-60dB = regular

60-65dB = pobre

65dB = geralmente a telecom não instala nestas condições

domingo, 31 de julho de 2011

Versões do Windows 7 disponíveis no Brasil

7 coisas que você deve saber antes de comprar memória RAM


Todo programa executado é armazenado, temporariamente, na memória RAM do computador. Quando mais programas do que o suportado são abertos, o sistema operacional passa a utilizar a chamada memória virtual, que é armazenada em disco.

Porém, há uma desvantagem nesse processo: a leitura e escrita de dados no HD na máquina são muito mais lentas do que o processo equivalente na memória física. Para evitar que isso cause quedas de desempenho no computador, basta ter muita memória RAM disponível.

Mas antes de sair por aí, comprando qualquer uma das opções disponíveis no mercado, há alguns pontos que devem ser verificados. Para facilitar, listamos abaixo o que achamos importante saber antes da compra.

1. Quantos GB de RAM eu preciso?

A resposta depende do uso que você fará do computador. Para sistemas desktop comuns, usados para tarefas rotineiras, como navegar na internet e fazer pequenas edições em fotografias digitais, é recomendado ter, pelo menos, 2 GB de RAM.

Caso o computador seja usado para tarefas que exijam mais performance, como a compilação de programas e edição de áudio, recomendamos que tenha disponível pelo menos 4 GB. Mas se o assunto for games de última geração, é melhor não economizar e instalar até 6 GB de RAM. Assim, você terá memória de sobra para jogar os últimos lançamentos do mercado.

Note também que sistemas operacionais (SO) de 32 bits reconhecem, no máximo, até 4 GB de RAM. Portanto, para usar mais memória do que isso, o usuário deve instalar um SO de 64 bits. Para maiores informações, consulte o nosso artigo sobre o assunto.

2. Formatos de RAM

DDR, DDR2, DDR3, SDRAM, So-Dimm etc. Essa “sopa de letrinhas” costuma confundir o usuário antes da compra. Consulte sempre o manual da sua placa-mãe para saber qual é o formato compatível com ela. E caso você tenha ficado curioso sobre as diferenças entre esses tipos de RAM, recomendamos a leitura de “Como funciona a memória RAM?”, publicado pelo Tecmundo.

3. Frequência e voltagem

Como regra de ouro, podemos dizer que, quanto mais alta a frequência do pente de memória, maior é o desempenho dele. Porém, antes de comprar aquela memória de 1.600 MHz, é necessário verificar se a placa-mãe do seu computador suporta esse tipo de RAM.

Caso a frequência da memória seja superior à suportada pela placa, a RAM funcionará com uma performance inferior. Dependendo do caso, ela nem mesmo poderá ser utilizada na mesma máquina. Se o pente de memória tiver frequência inferior à suportada pela placa-mãe, o sistema como um todo perderá em desempenho, já que estará trabalhando abaixo do seu limite.

Além disso, algumas memórias podem exigir uma voltagem fora dos padrões para funcionar corretamente. Por isso, é sempre importante consultar o manual da placa-mãe para saber se ela é capaz de trabalhar com os requisitos exigidos pela RAM.

4. Latência

Dessa vez, a regra é inversa: quanto menor o valor, melhor. Afinal, a latência é o tempo que a memória leva para acessar determinado dado. Portanto, quanto menor o tempo de latência (atraso), mais rápido a memória responderá e enviará dados aos demais componentes de hardware.

5. Confira a QVL

A maioria dos fabricantes de placa-mãe costuma disponibilizar uma lista de fornecedores qualificados. Em inglês, essa lista é conhecida como Qualified Vendor List (QVL) e, nela, é possível encontrar os principais modelos e marcas de memória RAM indicadas para a sua placa.

Portanto, antes de comprar um produto totalmente desconhecido, vale a pena conferir o preço das indicações listadas na QVL. Pode ser que, por alguns poucos reais a mais, você possa adquirir uma RAM licenciada pela fabricante da sua placa-mãe, o que significa mais estabilidade e compatibilidade.

6. Garantia

É aconselhável pensar com seriedade na memória a ser adquirida. Quando compramos uma televisão, por exemplo, é comum perguntarmos sobre o tempo de garantia fornecido pelo fabricante. O mesmo acontece com a RAM. Antes de fechar a compra, verifique se o fabricante ou a loja fornece garantia para o produto.

7. Quantidade de pentes instalados

Quanto mais simples, melhor. A máxima também serve para esse caso. Se estiver em dúvida quanto a comprar quatro pentes de 1 GB ou dois de 2 GB, opte pelo menor número de pentes. A razão é simples: é menos “custoso”, para a placa-mãe, gerenciar dois pentes de memória, do que quatro.

Leia mais em: http://www.tecmundo.com.br/11329-7-coisas-que-voce-deve-saber-antes-de-comprar-memoria-ram.htm

sábado, 9 de julho de 2011

7 coisas que podem fazer seu computador explodir

Conheça os possíveis problemas que podem resultar em shows de luzes e fumaça dentro dos gabinetes.

Quem tem sorte nunca teve problemas com o computador. Já os azarados sofrem com telas azuis, desligamentos, reinicializações, queima de componentes e até explosões. Não que as pessoas gostem de bancar os terroristas com as máquinas, porém, existem situações em que a máquina se autodestrói.

Isso não é tão comum, mas ocorre e pode ser perigoso. É difícil identificar o motivo, porém, para nós, do Tecmundo, desmistificar todo tipo de assunto é importante. Portanto, hoje abordaremos algumas “coisas” que podem explodir no seu PC e os principais culpados.



Leia mais em: http://www.tecmundo.com.br/11379-7-coisas-que-podem-fazer-seu-computador-explodir.htm

quinta-feira, 23 de junho de 2011

Senha segura precisa ter dez caracteres

RANDALL STROSS
DO "NEW YORK TIMES"
 
Para uma senha bem difícil, pense dez. Se a sua senha tiver dez caracteres, você terá condições de dormir bem à noite --talvez por 19,24 anos.

Esse é o tempo que um hacker levaria para testar todas as combinações de dez caracteres, assumindo que a senha esteja criptografada e que o hacker tenha poderio computacional suficiente para organizar 100 bilhões de combinações por segundo e quebrar a codificação.

Mas, se os seus nomes de usuário e as suas senhas aparecerem em um servidor sem estar criptografado, talvez você não durma nem por um instante, pensando nos efeitos potencialmente devastadores à sua espera.

Hackers adorariam colocar as mãos em uma coleção completa de todas as suas senhas, como as guardadas pela LastPass, um serviço de gerenciamento de senhas.

 
A partir da instrução de seus clientes, a LastPass armazena nomes de usuário e senhas em seu servidor quando um site é visitado e, em uma próxima visita, preenche todos os formulários automaticamente.

No mês passado, a LastPass afirmou ter notado um comportamento estranho nos registros do tráfego em sua rede e que poderia ter sofrido uma invasão on-line.

Eu sou cliente da LastPass desde o ano passado e senti uma ponta de preocupação ao ouvir a notícia. Mas os meus nervos se acalmaram com o entusiasmo de consultores em segurança que consideram o modelo de segurança da LastPass muito bem elaborado.

A empresa não armazena senhas reais, somente as criptografadas. O serviço não possui a senha para decodificá-las --somente seus usuários a tem. Ela nem sequer armazena a senha LastPass mestre, usada para gerar acesso a todas as outras senhas, que também é criptografada antes de ser enviada à nuvem.

A LastPass tem uma possível vulnerabilidade que Joe Siegrist, seu diretor-executivo, não faz esforço para esconder: o serviço depende de o usuário escolher uma senha mestre difícil e inexistente em qualquer língua.

Se a LastPass ou qualquer outra empresa que armazenou senhas em formato criptografado sofresse um ataque, o risco seria o de ladrões partirem para a força bruta, sem pressa e off-line, tentando todas as combinações possíveis de caracteres. Eles precisariam ter expectativa de vida quase infinitas para esgotar as possibilidades.

Computadores, porém, trabalham em outra velocidade.

COMBINAÇÕES

Steve Gibson, especialista em segurança, publicou uma página na internet que permite ao visitante ver quanto tempo demoraria para um computador testar todas as combinações possíveis de palavras, números e símbolos especiais para quebrar uma senha criptografada.

Eis aqui um teste: qual é a senha mais difícil? "PrXyc.N54" ou "D0g!!!!!!!"?

A primeira, com nove caracteres, é muito boa. O site de Gibson diz que um hacker levaria 2,43 meses para testar off-line todas as combinações envolvendo os nove caracteres, a uma razão de 100 bilhões de conjecturas por segundo. No entanto, a segunda possui dez caracteres. E esse caractere extra torna a senha bem mais difícil. O teste, a uma razão de 100 bilhões de conjeturas por segundo, levaria 19,24 anos.

Não se preocupe com a aparente semelhança do "D0g", com um zero no meio. Isso não faz sentido, "pois o invasor é totalmente incapaz de perceber tais semelhanças", escreveu Gibson.

Gibson afirma que, se a senha não fizer parte de uma lista de senhas comumente usadas e não constar em dicionários, o fator mais importante nela é o comprimento.

Paul C. Van Oorschot, professor de ciências da computação na Universidade Carleton, em Ottawa, tem uma visão cética. "Eu acredito que qualquer sistema irá falhar", afirmou ele. Consequentemente, "não uso um gerenciador de senhas. Escrevo minhas senhas em um papel".

Mesmo isso não lhe oferece tranquilidade: ele não possui conta bancária on-line por causa de sua preocupação em sofrer um ataque hacker.

Uma alternativa a esse risco é usar senhas difíceis, caracteres sem sentido, somando pelo menos dez deles. Claro, é imperativo que os sites armazenem sua senha de forma criptografada. Sempre.

Tradução de FABIANO FLEURY DE SOUZA CAMPOS

Leia mais: http://www1.folha.uol.com.br/tec/933590-senha-segura-precisa-ter-dez-caracteres.shtml

D-Link lança media center Boxee Box no Brasil

Comercializado nos Estados Unidos desde o primeiro semestre de 2010, o Boxee Box, media center da D-Link, vai ser lançado oficialmente no Brasil no final deste mês. O aparelho permite ao usuário executar arquivos de música e vídeo na TV, assim como obter conteúdo via streaming a partir da internet.



A conexão à TV (ou a um monitor) é feita a partir de uma porta HDMI. O acesso à internet, por sua vez, pode ser obtido tanto por Wi-Fi quanto por cabo Ethernet. O Boxee Box também conta com duas portas USB 2.0, entrada para cartão SD, conectores para áudio, 1 GB de memória RAM e 1 GB de memória flash para armazenamento de dados. O sistema operacional, também chamado de Boxee, é próprio para execução de material audio-visual e pode ser baixado gratuitamente em www.boxee.tv/signup.

O interessante é que o Boxee Box é acompanhado de um controle remoto que de um lado possui botões para esta função e, do outro, faz as vezes de um teclado QWERTY. O usuário também pode utilizar dispositivos móveis com iOS ou Android como controle remoto.

A versão brasileira já está preparada para receber conteúdo de serviços como Terra TV, Globo Digital e Saraiva Filmes.



O dispositivo estará à venda nas principais redes varejistas do país com preço sugerido de 899 reais a partir do próximo dia 29. Apenas para efeitos comparativos, nos Estados Unidos, é possível adquirir o Boxee Box por cerca de 200 dólares. Mais informações no endereço www.dlink.com.br/boxeebox.

Leia mais: http://www.infowester.com/noticias/d-link-lanca-media-center-boxee-box-no-brasil/

USB 3.0 é coisa do passado: PCI Express transfere até 32 Gbps

A taxa de transferência do novo sistema é a mais rápida já vista, deixando a concorrência muito atrás.

Se o duelo até agora era entre o Thunderbolt e o USB 3.0, os dois sistemas acabam de ganhar um novo concorrente de peso. A PCI Special Interest Group anunciou esta semana a criação de seu mais novo modelo de conexão para dispositivos externos. O sistema chega a impressionantes 32 Gbps (gigabits por segundo), enquanto Thunderbolt e USB 3.0 não passam dos 10 Gbps e 5 Gbps, respectivamente.



Ainda não existem muitos detalhes a respeito do novo modelo, porém, são grandes as possibilidades de que o sistema seja construído a partir de fios de cobre, mais plano e fino do que o Thunderbolt. Além disso, o cabo PCI Express deve ser capaz de canalizar energia para os aparelhos conectados a ele.

Com base em novos equipamentos, ainda mais compactos, o PCI Express deve chegar ao mercado com conectores ultrafinos, sendo que a própria empresa já estaria desenvolvendo novos padrões de conexão para a transferência de dados de maneira óptica. A previsão é de que o novo modelo da PCI seja lançado até o ano de 2013.

Leia mais em: http://www.tecmundo.com.br/10994-usb-3-0-e-coisa-do-passado-pci-express-transfere-ate-32-gbps.htm

quarta-feira, 22 de junho de 2011

Entenda como funciona um ataque de negação de serviço

Sites do governo brasileiro ficaram indisponíveis nesta quarta (22).
Ataques são capazes de travar ou sobrecarregar sistemas.

A "criação artificial de um número elevado de solicitações simultâneas" a um servidor é conhecido como ataque de “negação de serviço”, abreviado pelas iniciais em inglês DDoS (Distributed Denial of Service). O objetivo dessa ação é tornar o serviço indisponível.

Um ataque de negação de serviço em um servidor de e-mail o incapacitaria de processar novas mensagens, da mesma forma que um servidor web não poderia mais servir páginas de internet. Um ataque DDoS é como formar um grupo de pessoas para ocupar uma loja, sem comprar nada, para impedir que os clientes de verdade entrem e sejam atendidos.

Nesta quarta-feira (22), a assessoria de imprensa da Presidência da República confirmou ter sofrido um congestionamento das suas redes, o que deixou os sites da Presidência da República, do Portal Brasil e da Receita Federal indisponíveis durante a madrugada. Em 2009, clientes do Speedy, da Telefônica, tiveram dificuldades de acessar sites por causa de ações externas – provocadas por hackers – que desestabilizaram os servidores DNS (Servidor de Nome de Domínio, em português).

Ataques DDoS são normalmente difíceis de contornar, porque as solicitações maliciosas, com o intuito de sobrecarregar o serviço, costumam chegar de vários computadores diferentes. Não dá para simplesmente bloquear o acesso dos computadores ao servidor, porque são muitos.

DDoS: Sobrecarregando um sistema



A metodologia base do ataque de negação de serviço distribuída não é difícil de ser entendida: o criminoso cria um fluxo interminável de solicitações falsas ao computador alvo, de tal maneira que ele fique sobrecarregado e impedido de atender às solicitações dos usuários verdadeiros.

Esse ataque é comumente realizado pelas chamadas redes zumbis, da qual fazem parte computadores infectados com um determinado tipo de praga digital. Os computadores infectados ficam sob o controle do criminoso, que ordena a realização dos acessos falsos que irão sobrecarregar o sistema alvo.

Embora bastante “brutos”, esses ataques têm sido refinados para que o objetivo de derrubar o alvo seja atingido mais rapidamente e com uso de menos recursos da 'rede zumbi'. Alguns DDoS têm motivação política, enquanto outros são claramente criminosos, por atingirem sites de empresas antivírus ou se envolverem em esquemas de extorsão para exigir pagamento dos donos dos sites para que o ataque seja encerrado.

Já os ataques que partem de milhares de sistemas para derrubar um alvo são difíceis de lidar. Mesmo profissionais experientes e com os recursos adequados serão desafiados por ataques muito fortes, nos quais muitas máquinas estão envolvidas.

Proteção




Um tipo de defesa é feita nos roteadores e "switches" da internet -- equipamentos responsáveis por determinar o “caminho” que cada conexão segue. No caso de um ataque, eles são configurados para bloquear os endereços de origem ou, se for muito forte, do alvo, para que a rede inteira não seja afetada. Os roteadores geralmente são conectados em várias redes, tendo à sua disposição uma conexão suficientemente rápida para suportar alguns ataques.

Outra solução contra os ataques de DDoS é uso de servidores de proxy reverso (em que um computador fica de ponte para outro) ou mesmo cache (quando uma informação fica armazenada em um computador para não ter de solicitá-la novamente). Nessa configuração, existe um sistema complexo entre o computador que está sendo atacado e a internet. Esse sistema é responsável por filtrar o tráfego indesejado e passar ao sistema verdadeiro apenas o que for necessário. A Akamai, a Prolexic Networks e a GigeSERVERS são algumas empresas que oferecem esse tipo de serviço.

Para resistir ao ataque, esses serviços fazem uso de várias técnicas. Uma delas são filtros avançados; em outra, os computadores que servem de escudo estão distribuídos por todo o planeta. Isso dispersa os acessos maliciosos, dividindo o ataque, possibilitando que o mesmo seja enfrentado em pequenas quantidades em vários locais – muito mais fácil do que fazer uma única rede aguentar tudo sozinha.

Apesar disso, ataques de negação de serviço distribuída não deixam de ser um problema. Foram usados, diversas vezes, como exemplos da fragilidade da rede. Assim como o spam, o DDoS necessita da colaboração entre administradores de redes no mundo todo. Ao contrário de outras atividades maliciosas da rede, o DDoS é facilmente percebido, mas mesmo assim algumas empresas operadoras de redes não demonstram interesse em fazer algo a respeito e facilitar a vida de quem é atacado.

Para os usuários domésticos, ataques DDoS não costumam ser um problema muito grave. A maioria dos usuários não será atacada, a não ser que se relacionem com as pessoas erradas na rede. No entanto, como a força do ataque é pequena nesses casos, é muitas vezes possível anulá-los reconectando-se à Internet, porque isso dará ao sistema um novo endereço IP, diferente daquele que o indivíduo mal-intencionado está atacando.
 
Leia mais: http://g1.globo.com/tecnologia/noticia/2011/06/entenda-como-funciona-um-ataque-de-negacao-de-servico.html

quarta-feira, 15 de junho de 2011

Inscrições para SiSU começam às 6h desta quarta-feira, segundo MEC

Prazo vai até as 23h59 de domingo (19).


Sistema usa Enem para selecionar candidatos para universidades públicas.

Do G1, em São Paulo

As inscrições para o Sistema de Seleção Unificada (SiSU) do segundo semestre começam às 6h desta quarta-feira (15) e vão até as 23h59 de domingo (19), segundo o Ministério da Educação. As inscrições ocorrerão exclusivamente pela internet.

O SiSU oferece vagas em universidades estaduais e federais e institutos de educação profissional. O sistema foi criado pelo MEC para unificar a oferta de vagas em instituições públicas.



Neste semestre, serão oferecidas 26.336 vagas em 19 universidades federais, 23 institutos federais, dois centros federais de educação tecnológica (Cefet) e quatro universidades estaduais. No segundo semestre de 2010, 35 instituições participaram, com de 16 mil vagas. No primeiro semestre deste ano, o sistema teve um milhão de inscrições e ofereceu 83 mil vagas.

De acordo com o MEC, serão oferecidas 10.552 vagas em cursos noturnos, 9.324 em cursos em período integral, 3.526 são para cursos matutinos e 2.934 para cursos vespertinos.

Somente poderão se inscrever no processo seletivo do segundo SiSU de 2011 os candidatos que tenham participado da edição do Exame Nacional do Ensino Médio (Enem) referente ao ano de 2010 e que, cumulativamente, tenham obtido nota acima de zero na prova de redação.

O SiSU ficará disponível para inscrição dos candidatos das 6h às 23h59 de cada dia de inscrição (horário de Brasília). Não haverá cobrança de taxa de inscrição.

O processo seletivo terá duas chamadas sucessivas. A primeira chamada será em 22 de junho e a segunda chamada sai em 2 de julho. De acordo com o texto, a matrícula dos selecionadas na primeira chamada ocorre em 27 e 28 de junho. A matrícula da segunda chamada será em 5 e 6 de julho.

Segundo o edital, as instituições de ensino superior poderão fazer o lançamento da ocupação das vagas no SiSU referentes à primeira chamada em 27, 28 e 29 de junho e referentes à segunda chamada em 5, 6 e 7 de julho.

Para participar da lista de espera, o candidato deverá manifestar seu interesse por meio do SiSU entre os dias 2 e 7 de julho. O candidato somente poderá manifestar interesse na lista de espera para o curso correspondente à sua primeira opção de vaga. Não poderá participar da lista de espera o candidato que tenha sido selecionado para o curso correspondente à sua primeira opção de vaga em qualquer das chamadas do processo seletivo.

Segundo o edital, a lista de espera não observará as eventuais reservas de vagas e bônus atribuídos à nota do candidato no SiSU pelas instituições de ensino superior.

A lista de espera será usada prioritariamente pelas instituições de ensino superior participantes para preenchimento das vagas eventualmente não ocupadas nas duas chamadas do sistema.

Os procedimentos de chamada para preenchimento das vagas deverão estar definidos em edital próprio de cada instituição de ensino superior participante.

As instituições podem redefinir a lista de espera do sistema em decorrência da consideração dos critérios referentes às suas políticas de ações afirmativas originalmente adotadas em seu termo de participação. Nesse caso, a instituição deverá explicitar em edital próprio a forma de redefinição da lista.

As universidades podem convocar os candidatos da lista de espera para manifestação de interesse presencial, em número superior ao número de vagas disponíveis.

Leia mais: http://g1.globo.com/vestibular-e-educacao/noticia/2011/06/inscricoes-para-sisu-comecam-6h-desta-quarta-feira-segundo-mec.html

segunda-feira, 13 de junho de 2011

Pane do Speedy foi em equipamento de conexão internacional

A pane que afetou o serviço de internet Speedy nesta segunda-feira foi causada por problemas em dois equipamentos (roteadores) que fazem a conexão da rede brasileira com sites internacionais.

Segundo informou a Telefônica, as instabilidades aconteceram entre 17h15 e 18h30 nos aparelhos relacionados à saída internacional de tráfego. A empresa afirma que o sistema já voltou ao normal.

O problema, segundo a empresa, "impediu que alguns clientes do Speedy tivessem acesso a sites hospedados fora do Brasil. As equipes técnicas atuaram prontamente e às 18h30 o problema estava solucionado".

A operadora informou ainda que, com o grande volume de usuários tentando religar seu equipamento de conexão (modem do Speedy) simultaneamente, houve sobrecarga na rede, o que dificultou o acesso após o serviço ser restabelecido.

"Mesmo com o restabelecimento do serviço, alguns usuários podem ter encontrado dificuldades para acessar a internet devido ao grande volume de internautas que, ao mesmo tempo, desligaram e voltaram acionar os seus modems", informou a empresa, em nota.

Segundo a Anatel, entretanto, o problema aconteceu porque algumas estações de rádio da Telefônica sofreram pane. Até o início da noite desta segunda-feira, problemas em outras regiões também estavam sendo investigados.

A Telefônica não soube informar quantos dos cerca de 3,5 milhões de clientes foram afetados.

TWITTER

Durante a tarde, houve relatos de problemas em diversas cidades do Estado no microblog Twitter.

"A previsao inicial é que o serviço comece a ser normalizado às 22h. Não descobriram ainda a causa do problema que derrubou o Speedy às 17h45", afirma Gregori Pavan, no Twitter.

Em entrevista à reportagem, o estudante Pavan, 25, de Peruíbe (litoral paulista), disse que só conseguiu contato com a Telefônica às 18h10.

"A atendente primeiro negou que houvesse falhas. Depois, disse que apareceu no sistema uma mensagem informando que havia 'notificação para reparo' nos DDDs 14 e 19. Em seguida, ela disse que outra mensagem informou que o problema era dos DDDs 11 a 19", disse.

HISTÓRICO

Problemas no Speedy ganharam destaque principalmente entre 2008 e 2009, quando diversas falhas comprometeram a conexão de usuários paulistas.

Em 2008, uma pane em um equipamento no interior de São Paulo deixou clientes residenciais e corporativos sem conexão por mais de 24 horas.

No início de 2009, até mesmo um incêndio num data center prejudicou as conexões, enquanto em junho, uma pane generalizada deixou boa parte dos 2,7 milhões de usuários sem internet.

A companhia chegou a ser proibida pela Anatel de comercializar os serviços entre junho e agosto de 2009, até que as falhas fossem apuradas e corrigidas.

http://www1.folha.uol.com.br/mercado/929507-pane-do-speedy-foi-em-equipamento-de-conexao-internacional.shtml

sábado, 11 de junho de 2011

Revista Espirito Livre Edições 17 a 26










Revista PC&Cia Edição 93


Clique aqui para fazer o download gratuito.

Revista PC&Cia Edição 92


Clique aqui para fazer o download gratuito.

Como funciona a fibra ótica

Você sabe como funciona o sistema que oferece conexões muito superiores às conhecidas hoje? Acompanhe este artigo e entenda o funcionamento da fibra ótica.

Transmissão de dados e voz em longas distâncias com pouca perda de sinal e qualidade, tudo isso com altíssimas velocidades. Já pensou nas maravilhas que isso permitiria? Apostamos que você deve estar pensando: baixar programas e músicas ficaria muito mais rápido e o tempo de espera por downloads seria reduzido ao mínimo.



E é exatamente isso que aconteceria, se todas as empresas de internet banda larga disponibilizassem a tecnologia da fibra ótica para os usuários. Logicamente a mudança de tecnologia demanda grandes quantias de dinheiro, por isso é difícil que tenhamos a fibra ótica em todas redes domésticas pelos próximos anos.

No Brasil, apenas algumas universidades e institutos públicos possuem este tipo de conexão. Em 2011, algumas residências devem passar a contar com o modo de transmissão de alta velocidade da fibra ótica – pelo menos é o que está prometendo uma das maiores empresas de telecomunicações do país.

Mas você sabe como funcionam os cabos de fibra ótica? Acompanhe este artigo que o Tecmundo preparou para você e descubra como ocorre a transmissão de dados e voz por meio dos cabos de fibra ótica. Aproveite também para entender o quão importante eles podem ser em nossas vidas.

Leia mais em: http://www.tecmundo.com.br/9862-como-funciona-a-fibra-otica-infografico-.htm

sábado, 4 de junho de 2011

Microsoft revela Windows 8, o sistema para qualquer tipo aparelho

Novo sistema é otimizado para touchscreen, mas poderá ser usado com mouse e teclado.



O Windows 8 é oficial. Durante a conferência da Microsoft nesta última quarta (1º) na D9, a nova geração do sistema operacional foi demonstrada com destaque especial para a interface, que foi totalmente remodelada para seguir a forte tendência de hardware e softwares touchscreen.

De acordo com o anúncio oficial da Microsoft, o novo Windows é adaptável para diferentes telas, das menores até as maiores, com ou sem suporte para toque. O mesmo Windows roda tanto em um tablet quanto em máquinas maiores e mais potentes.

Como afirmou Mike Angiulo, responsável pelo planejamento do Windows, "o Windows 8 será rodado em uma vasta gama de máquinas porque terá os mesmos requerimentos de sistema ou menores". Apesar de otimizado para touchscreen, quem usa mouse e teclado poderá desfrutar do novo sistema normalmente.

A nova plataforma e os novos recursos para desenvolvedores farão com que os aplicativos sejam compatíveis com todos os tipos de computador, com ou sem teclado, com tela grande ou pequena, tablets, notebooks, etc. “Centenas de milhões de PCs vão rodar a nova interface do Windows 8”, ressalta o anúncio oficial da Microsoft.

Leia mais em: http://www.tecmundo.com.br/10452-microsoft-revela-windows-8-o-sistema-para-qualquer-tipo-aparelho.htm

Protogon: Windows 8 pode ter novo sistema de arquivos

Novidade ainda é cercada de mistérios, podendo se tratar de uma reinvenção do WinFS planejado para o sistema Longhorn.



Entre as diversas novidades preparadas pela Microsoft para o Windows 8, pode estar um sistema de arquivos totalmente novo, conhecido até o momento pelo nome Protogon. Segundo informações da jornalista Mary Jo Foley, do ZDNet, a novidade aparentemente substituirá, ou ao menos será capaz de emular com perfeição, o sistema NTFS.

Diversas referências ao Protogon estão presentes nas versões Milestone vazadas do sistema operacional. Especula-se que novidade incorpora alguns conceitos utilizados por bancos de dados na criação de arquivos, como cursores, colunas e tabelas.

Rumores também apontam que o Protogon pode ser uma atualização do sistema de armazenamento Jet Blue, adaptado para as versões mais recentes do Active Directory e do Exchange Server. Há ainda a possibilidade de o recurso se tratar de uma reinvenção do WinFS, sistema de arquivos desenvolvido para o Longhorn, mas que foi descontinuado pela Microsoft.

Leia mais em: http://www.tecmundo.com.br/10434-protogon-windows-8-pode-ter-novo-sistema-de-arquivos.htm

13 coisas que podemos esperar no Windows 8

Rumores sobre a nova versão do sistema operacional da Microsoft não faltam. Mas o que realmente pode surgir com o Windows 8?



É fato que ainda falta um bom tempo para o lançamento oficial da nova versão do sistema operacional da Microsoft – ao que tudo indica, um ano a mais de espera. Entretanto, a plataforma tem gerado inúmeras especulações sobre as reformulações que estaria recebendo, intensificadas após o vazamento de instaladores na web.

Sites especializados em tecnologia de todo o mundo vasculham indícios deixados pela empresa em busca de algo que revele um ou outro recurso que será empregado. Todavia, com tantos rumores, é difícil saber o que se fará presente no SO.

Ainda em 2010, o Tecmundo publicou o artigo “Quais recursos devemos esperar no Windows 8?”, o qual explicita as novidades que, na época, estavam causando murmúrios na mídia. Fomos atrás de informações e trouxemos para nossos leitores o que está próximo de se tornar realidade e aquilo que não passou de boatos infundados.

Leia mais em: http://www.tecmundo.com.br/10381-13-coisas-que-podemos-esperar-no-windows-8.htm

Ballmer dá dicas de que Windows 8 deve chegar em 2012

Em conferência da Microsoft, o CEO da empresa afirmou que a próxima geração dos sistemas Windows será lançada no ano que vem.



Até agora, tudo o que tínhamos sobre o futuro do Windows eram rumores e algumas versões de testes sem acabamentos. Mas no momento em que Steve Ballmer, CEO da Microsoft, diz algo a respeito, podemos afirmar que as histórias começam a ficar mais próximas da realidade. Imagine então quando ele diz, com todas as letras: “A próxima geração dos sistemas Windows chegará no próximo ano”.

Pois foi isso que aconteceu durante uma conferência da Microsoft, realizada apenas para desenvolvedores japoneses. Ele também afirmou que outros dispositivos eletrônicos também devem receber suas próprias versões do sistema operacional, por isso é bom ficarmos de olho em possíveis Windows, especialmente criados para tablets.

O que Ballmer não confirmou foi o nome do novo sistema operacional. Caso siga as últimas tendências, ele será chamado de Windows 8 (e é o que todos esperam), porém, isso ainda é uma especulação. Funcionalidades e recursos também não foram confirmados, mas se espera que o suporte ao touchscreen seja melhorado para os tablets.

Leia mais em: http://www.tecmundo.com.br/10243-ballmer-da-dicas-de-que-windows-8-deve-chegar-em-2012.htm

quarta-feira, 20 de abril de 2011

Sistema de arquivos NTFS

Introdução

O NTFS (New Technology File System) é um sistema de arquivos que surgiu com o lançamento do Windows NT. Sua confiabilidade e desempenho fizeram com que fosse adotado nos sistemas operacionais posteriores da Microsoft, como Windows XP, Windows Vista, Windows 7 e Windows Server 2008. Mas, quais são as principais características do NTFS? No que esse sistema de arquivos se diferencia? De fato, o que é NTFS? As respostas para estas e outras questões você confere a seguir.

Antes, o que é um sistema de arquivos?

Não é possível gravar dados em um HD ou em qualquer outro dispositivo de armazenamento de forma a manter as informações acessíveis e organizadas sem um sistema de arquivos (file system) - essencialmente, um tipo de estrutura que indica como os arquivos devem ser gravados e lidos pelo sistema operacional do computador.

É o sistema de arquivos que determina como as informações podem ser guardadas, acessadas, copiadas, alteradas, nomeadas e até apagadas. Ou seja, resumindo, toda e qualquer manipulação de dados em um dispositivo de armazenamento necessita de um sistema de arquivos para que estas ações sejam possíveis. Sem um sistema de arquivos, os dados armazenados seriam apenas um conjunto de bits sem utilidade.

Há vários sistemas de arquivos disponíveis, para os mais diversos sistemas operacionais e para as mais variadas finalidades.

Como o NTFS surgiu?

O NTFS é um sistema de arquivos amplamente utilizado nos sistemas operacionais da Microsoft. Sua primeira aparição foi no Windows NT, sistema operacional para uso em servidores cuja primeira versão foi lançada em 1993. No entanto, a história do NTFS começa muito antes disso.

Até aquela época, a Microsoft não possuía nenhum sistema operacional capaz de fazer frente ao Unix e suas variações em aplicações de servidores. Seus principais produtos eram o MS-DOS e a linha Windows 3.x, essencialmente, sistemas operacionais para uso doméstico ou em escritório. Era preciso criar algo novo, capaz de disputar mercado com as soluções baseadas em Unix. Foi aí que surgiu o Windows NT.

De nada adianta um sistema operacional novo se o seu sistema de arquivos for limitado. Na época, a Microsoft tinha em mãos o sistema de arquivos FAT. Este funcionava razoavelmente bem em aplicações domésticas, mas não serviria aos propósitos do novo projeto por uma série de restrições, entre elas, baixa tolerância a falhas, inviabilidade de uso de permissões de arquivos e limitações para o trabalho com grande volume de dados.

Para superar esses e outros problemas, a Microsoft decidiu utilizar o NTFS. Porém, ao contrário do que muita gente pensa, a empresa não desenvolveu esse sistema de arquivos sozinha. Ela utilizou como base o HPFS (High Performance File System), sistema de arquivos que tinha a IBM por trás.

No início da década de 1980, ambas as companhias fecharam um acordo para o desenvolvimento do OS/2, um sistema operacional até então moderno, que se destacaria por sua capacidade gráfica (naquela época, era muito comum o uso de sistemas operacionais baseados em linha de comando).

O problema é que, logo, Microsoft e IBM passaram a divergir em relação a diversos pontos. Como consequência, desfizeram a parceria. A IBM continuou tocando o projeto do OS/2, enquanto que a Microsoft foi cuidar de seus interesses, mais precisamente, do projeto que resultou no Windows NT. No entanto, a companhia não abandonou a parceria de mãos vazias: levou vários conceitos do HPFS - o sistema de arquivos do OS/2 - relacionados à segurança, confiabilidade e desempenho para posteriormente implementá-los no NTFS.

Sabe-se também que o NTFS tem alguma relação com o Files-11, sistema de arquivos do sistema operacional VMS, que passou às mãos da Compaq em 1998, empresa que posteriormente foi adquirida pela HP. Quando os trabalhos no VMS estavam em andamento, parte de sua equipe se transferiu para Microsoft, com destaque para o engenheiro de software Dave Cutler, um dos nomes por trás do NTFS e do próprio Windows NT

Leia mais: http://www.infowester.com/ntfs.php

Conheça a Memória DDR3 (Double Data Rate 3)

Introdução

As memórias DDR3 (Double Data Rate 3) chegaram ao mercado para substituir o padrão DDR2, tal como este substituiu o tipo DDR. A motivação dessa mudança é, como sempre, a necessidade de melhor desempenho. Neste artigo, você verá as principais características das memórias DDR3 e conhecerá suas diferenças em relação aos padrões anteriores.



Principais características das memórias DDR3

As memórias DDR se destacam em relação ao padrão anterior - memórias SDR SDRAM - porque são capazes de realizar duas operações de leitura ou escrita por ciclo de clock (em poucas palavras, a velocidade com a qual o processador solicita operações - entenda mais neste artigo sobre processadores). As memórias DDR2, por sua vez, dobram essa capacidade, realizando quatro operações por ciclo de clock.

O tipo DDR3 segue o mesmo caminho: dobra a quantidade de operações por vez em relação ao padrão anterior, ou seja, realiza 8 procedimentos de leitura ou gravação a cada ciclo de clock, quatro no início deste e outros quatro no final.

Para compreender melhor este aspecto, considere que, quando nos referimos ao ciclo de clock, estamos tratando da comunicação da memória com o exterior. Porém, a memória trabalha com uma frequência própria internamente.

Levando essa característica em conta mais a questão das operações por ciclo de clock, temos o seguinte cenário:

- Um módulo DDR-400, por exemplo, funciona internamente a 200 MHz, mas oferece 400 MHz por trabalhar com duas operações por ciclo (2 x 200);

- Um pente DDR2-800, que também funciona internamente a 200 MHz, pode oferecer 800 MHz, já que faz uso de quatro operações por vez (4 x 200).

- Seguindo a mesma lógica, podemos tomar como exemplo um módulo DDR3-1600 que, assim como os anteriores, funciona internamente a 200 MHz, no entanto, por utilizar 8 operações por ciclo de clock, pode oferecer 1.600 MHz (8 x 200).

Vale frisar que, em termos gerais, as taxas da frequência de comunicação externa são quatro vezes maiores que o clock interno. Com isso, um módulo que trabalhar internamente a 200 MHz funciona externamente a 800 MHz, por exemplo.

Há, no entanto, um aspecto onde a memória DDR3 leva desvantagem: a latência, em poucas palavras, o tempo que a memória leva para fornecer um dado solicitado. Quanto menor esse número, melhor. Eis as taxas mais comuns para cada tipo de memória:

- DDR: 2, 2,5 e 3 ciclos de clock;

- DDR2: 3, 4 e 5 ciclos de clock;

- DDR3: 7, 6, 8 ou 9 ciclos de clock.

Perceba que, com isso, um módulo DDR2 pode gastar até 5 ciclos de clock para começar a fornecer um determinado dado, enquanto que no tipo DDR3 esse intervalo pode ser de até 9 ciclos.

Para conseguir diminuir a latência, fabricantes fazem uso de vários recursos nos módulos DDR3, como um mecanismo de calibragem de sinal elétrico, que proporciona maior estabilidade nas transmissões.

No que se refere ao consumo de energia, as memórias DDR3 conseguem levar vantagem em relação às tecnologias anteriores: por padrão, trabalham com 1,5 V, contra 1,7 V e 2,5 V dos tipos DDR2 e DDR, respectivamente. É importante destacar, no entanto, que esses valores podem ser aumentados ligeiramente pelo fabricante para atender a determinadas necessidades - alcançar um determinado nível de clock, por exemplo.

Leia mais: http://www.infowester.com/memddr3.php

Dicas do Windows 7: como trocar temas

Dê cara nova ao seu Windows 7 em poucos cliques!



Leia mais no Baixaki: http://www.tecmundo.com.br/9698-dicas-do-windows-7-como-trocar-temas.htm

Dicas do Windows 7: conhecendo o Menu Iniciar

Veja como acessar programas de maneira muito prática com os recursos do Menu Iniciar do Windows 7.



Leia mais no Baixaki: http://www.tecmundo.com.br/9696-dicas-do-windows-7-conhecendo-o-menu-iniciar.htm

Ranking Abril/2011 - Sistemas Operacionais

Ranking de Abril/2011 dos Navegadores

A velocidade média da internet no Brasil

Pesquisas revelam a velocidade média da conexão brasileira à internet. Aproveite e descubra também qual é a média em algumas cidades do país e como testar sua conexão!

Muita coisa mudou desde que a internet chegou ao Brasil, há 20 anos. Novas tecnologias usadas em aplicações online acabam exigindo conexões cada vez mais rápidas com a internet. Felizmente, a banda larga está cada vez mais popular em nosso país e o cenário deve melhorar com as propostas do governo para democratizar o acesso à internet.



Porém, por mais que a situação atual seja favorável, sabemos que ainda há muito trabalho pela frente. Com a popularidade de serviços online, como programas executados na nuvem e streamings de conteúdo multimídia, é essencial que o Brasil possa competir por igual com o resto do mundo. Caso contrário, nosso domínio tecnológico poderia terminar obsoleto.

Mas qual é a velocidade média da conexão brasileira à internet? Chegamos a nos destacar no cenário internacional? Qual posição ocupamos no ranking mundial? Leia o artigo, analise o nosso infográfico e, de quebra, aprenda a calcular a velocidade média da sua conexão.

O relatório Nielsen

Recentemente, a empresa The Nielsen Company divulgou um estudo sobre o uso e a qualidade das conexões de banda larga no mundo. Com base em dados coletados durante o mês de fevereiro de 2011, a instituição analisou nove países — entre eles, o Brasil — e analisou a influência da velocidade da conexão no tempo despendido pelos usuários online.

Para demonstrar os resultados da pesquisa, a Nielsen classificou a velocidade da conexão em quatro grupos:

•lenta: até 512 Kbps;

•média: de 512 Kbps a 2 Mbps;

•rápida: de 2 a 8 Mbps; e

•super-rápida: acima de 8 Mbps.

Para o consumidor final, os dados publicados pelo relatório são satisfatórios. A conexão rápida (2 a 8 Mbps) é a mais comum em oito dos nove países pesquisados: Suíça, Estados Unidos, Alemanha, Austrália, Reino Unido, França, Espanha e Itália. Apenas uma pequena parcela da população usa conexões lentas, enquanto cerca de 19% dos internautas navegam com uma velocidade considerada super-rápida.

Leia mais no Baixaki: http://www.tecmundo.com.br/9683-a-velocidade-media-da-internet-no-brasil-infografico-.htm

O que são threads em um processador?

Definimos e exemplificamos o termo para você. Conheça o que difere os processadores multithread dos comuns.

Se você está lendo este artigo, é porque deve ter conhecimentos básicos para acessar a internet e navegar até o Tecmundo. Além disso, suas noções sobre informática devem comportar certas informações sobre o funcionamento básico de um computador.



Claro, você já ouviu falar em processador, conhece marcas como Intel e AMD, tem ideia de que a CPU faz cálculos, de que ela conta com núcleos e, possivelmente, sabe muito mais do que tudo isso. No entanto, existem coisas que nem sempre são esclarecidas, como é o caso de alguns termos americanos que aparecem quando falamos sobre os processadores.

Uma das palavras mais misteriosas nesse sentido é a “thread”. No que se refere a hardware, essa palavra apareceu no Brasil quando surgiram os primeiros modelos de processador com múltiplos núcleos. A princípio era fácil compreender que um dual-core tinha dois núcleos.

Entretanto, com a evolução das arquiteturas nas CPUs, surgiu o suporte para múltiplos threads (multithreading). E é aí que muitas pessoas se perguntaram o que realmente mudava. Afinal, o que é essa palavra? Faz diferença um processador trabalhar com o dobro de threads? Isso é o que vamos explicar agora!

Leia mais no Baixaki: http://www.tecmundo.com.br/9669-o-que-sao-threads-em-um-processador-.htm

Dicas do Windows 7: conhecendo a Área de trabalho

Se você ainda não está familiarizado com o Windows 7, comece por este simples tour pela Área de trabalho e não se perca.



Leia mais no Baixaki: http://www.tecmundo.com.br/9677-dicas-do-windows-7-conhecendo-a-area-de-trabalho.htm

quinta-feira, 14 de abril de 2011

Desmistificando os dados nos detalhes da conexão de rede

Saiba o que são aqueles itens presentes nos detalhes de uma conexão.

Se algum dia você já precisou abrir as propriedades de conexão em seu computador, deve ter observado que há uma série de números e siglas. Outro detalhe reside no fato de que, normalmente estas especificações são acessadas por meio do IPV4. Você já parou para pensar o que é tudo isso?

Se você sempre quis saber o que eram os dados exibidos na sua conexão de rede, abaixo segue uma pequena descrição de cada um deles.


IPV4 ou IPV6?

A sigla representando o nome de ambos vem de Internet Protocol Version 4 e 6. Você já deve ter percebido que sempre que as propriedades da rede são abertas é a partir do IPV4 na lista em vez de no IPV6. A diferença entre eles é que os protocolos do tipo IPv4 utilizam endereços de 32 bits, o que é suficiente para conectar à rede cerca de 4.3 bilhões de computadores.

O IPv6, utiliza endereços de 128 bits, por isso suporta um número muito maior de dispositivos. Devido ao crescimento dos usuários da internet, em breve a quantidade de usuários suportada pelo IPV4 não será mais suficiente para atender a demanda. Segundo a previsão de especialistas, os endereços restantes do IPv4 serão esgotados até 2012 o que fará necessária a migração para o IPV6.

Endereço IP

O IP, do inglês “Internet Protocol” (Protocolo de Internet), é um dos protocolos principais da Camada de Internet. Ele é o responsável pela entrega de pacotes por toda a rede, efetuando o direcionamento deles (do host para seu destinatário final) baseado nos endereços de cada um.

Cada computador conectado à Internet possui um endereço IP para a sua identificação, como o que aparece quando você acessa as propriedades de conexão de seu computador. Esses números estão no formato decimal, entretanto eles são interpretados pelo computador como binários. Observe que eles são separados por quatro pontos, como na imagem abaixo:

Cada uma dessas partes é chamada de octeto, pois em sua forma binária elas são compostas por oito números. Eles são separadores e utilizados para criar classes de endereços IP. Se você somar todas as posições, o total é de 32 e é por isso que os endereços de IP são considerados como contendo 32 bits.

Máscara de sub-rede

A máscara de sub-rede, falando de uma maneira simples, tem uma estrutura parecida com um endereço IP. Ela também é composta por 32 bits e serve para “mascarar” parte do endereço IP. Entretanto, ela aparece com valores representados por números entre 0 e 255.

Ela tem como principal função notificar ao roteador que as mensagens (com emissor e destino) possuem um endereço distinto. Ela permite reconhecer a parte do identificador de rede e do host. Por meio da máscara de sub-rede o roteador sabe que, se os três primeiros números são compartilhados, os pacotes devem permanecer na rede e não ser transmitidos para outra distinta, por exemplo.

Gateway padrão

O gateway padrão é o responsável por indicar um roteiro padronizado que é utilizado pelo protocolo TCP/IP para comunicar-se com os hosts em outras redes. Eles são essenciais para garantir que o roteamento pelo IP funcione de forma otimizada e eficiente.

É pelo gateway que um roteador percebe que existem redes externas e sabe como se conectar a elas. Se o gateway padrão tiver alguma falha, a comunicação com a internet e redes remotas é prejudicado.

Servidor DNS Preferencial e Alternativo

A sigla DNS, do inglês Domain Name System, é uma espécie de sistema para a tradução de endereços de IP para nomes de domínios. Assim, é possível atribuir nomes a um IP numérico, pois o DNS será responsável por efetuar a interpretação das palavras que foram utilizadas e transformá-las em números, de forma que o computador as compreenda e devolva o caminho correto por meio do acesso bem sucedido.

Existem dois tipos básicos de DNS em uma conexão, o preferencial e o alternativo (também chamados de DNS primário e secundário). O primeiro seria o local no qual o seu computador procura quando você digita um endereço na internet. Caso ele não seja uma identificação boa o suficiente para completar a tarefa, ele tenta buscar no que foi especificado como secundário.

Leia mais no Baixaki: http://www.tecmundo.com.br/9603-desmistificando-os-dados-nos-detalhes-da-conexao-de-rede.htm

Quais as diferenças entre os processadores Intel Core i3, i5 e i7 da primeira e segunda geração?

Conheça os novos processadores Intel e as principais novidades da arquitetura Sandy Bridge.

Em março do ano passado (2010), publicamos uma matéria a respeito das diferenças entre os processadores da família Intel Core, mais especificamente os modelos i3, i5 e i7. Agora, mais de um ano depois, vamos esclarecer as principais mudanças nas CPUs que integram a segunda geração dessa linha.



Lançados no início deste ano, os processadores com microarquitetura Sandy Bridge vêm para mostrar um salto em desempenho computacional. Baseados na arquitetura prévia Nehalem, essas novas CPUs contam com muitas características semelhantes. Todavia, existem mudanças que fazem dessa evolução na linha Intel Core um grande marco na história da maior fabricante de processadores.

Tudo igual... Entretanto, muito diferente

Como a própria Intel denomina, os novos Intel Core i3, i5 e i7 são processadores pertencentes à segunda geração de uma arquitetura que mostrou excelentes resultados. E justamente por não se tratar de um uma nova linha é que muitas configurações são semelhantes.

Leia mais no Baixaki: http://www.tecmundo.com.br/9578-quais-as-diferencas-entre-os-processadores-intel-core-i3-i5-e-i7-da-primeira-e-segunda-geracao-.htm

terça-feira, 12 de abril de 2011

14ª Feira do Estudante - EXPO CIEE 2011

O evento
 
A 14ª Feira do Estudante – EXPO CIEE 2011 é uma iniciativa do Centro de Integração Empresa-Escola – CIEE. Fundado há 47 anos o CIEE é uma organização não governamental (ONG), filantrópica e sem fins lucrativos, que tem como finalidade principal a inclusão profissional de jovens estudantes no mercado de trabalho, por meio de programas de estágio e de aprendizagem, contando com a parceria de 250 mil empresas e órgãos públicos de todo o País.
 
Objetivo
 
A feira de 2011 tem por objetivo criar um ambiente vivencial e interativo onde estudantes possam ter a oportunidade de participar da troca de informações que auxiliem a compreender, planejar e aprimorar a sua carreira. Tudo isso em um espaço que une segmentos empresariais e acadêmicos, sempre considerando a educação e o jovem como chaves para o futuro.
 
Público alvo
 
O evento é direcionado ao público jovem: estudantes do ensino médio, técnico e superior.
 
Local
 
BIENAL DO PARQUE DO IBIRAPUERA / SP
Av. Pedro Álvares Cabral, 1 - São Paulo/SP
Acesso para pessoas com deficiência

Quando

27, 28 e 29 de maio de 2011
Sexta • Sábado – das 10h às 20h
Domingo - das 10h às 18h