sábado, 24 de março de 2007

Samsung mostra linha de gravadores de DVD e Blu-ray



Gravador externo de DVD SE-BO46 se conecta ao via USB 2.0 ou Firewire

A fabricante coreana Samsung Electronics apresentou na CeBIT 2007 uma nova linha de gravadores e tocadores Blu-ray/DVD. O modelo SE-B046 é o que mais chama a atenção por seu tamanho e sua aparência semelhante à de um console.
Em preto e com detalhes luminosos em azul, o dispositivo é capaz de gravar discos BD-R em 4x e BD-RE (regraváveis) em 2x. Por ser externo, ele se conecta via USB 2.0 ou Firewire com o computador, e deverá estar disponível no mercado a partir de 2008.

Entre os outros dispositivos demonstrados estão dois novos gravadores de DVD em 20x com tecnologia Lightscribe, sendo um deles (SH-S203) um drive interno SATA, e outro (SE-S204) um gravador externo USB 2.0, que estará disponível a partir de maio de 2007.

Outro gravador de Blu-ray, este interno, modelo SH-B043, terá as mesmas velocidades de gravação que o dispositivo externo, e deve estar disponível até o fim de 2007, conforme noticiado no site PC Launches. Até o momento, a fabricante não divulgou o preço sugerido para os aparelhos.

Sistema de entretenimento é embutido na parede


Aparelho custa 35 mil euros, quase R$ 100 mil

A fabricante alemã Cen.sys apresentou em seu estande na feira CeBIT 2007, que acontece em Hannover, o "Cen Taurus WS 50", um home entertaintment system completo e personalizável, que pode ser embutido na parede.
De acordo com o site Gizmodo, trata-se de uma novidade cara, com preço aproximado de US$ 46.530 (35 mil euros), além de ser uma instalação pouco discreta.

A unidade possui um televisor plasma de 50 polegadas, ligado a um servidor de arquivos de 1 Terabyte, com um subwoofer de 200 W de potência, alto-falante central e caixas de som 7.1 surround. O usuário poderá controlar o sistema completamente, incluindo TV, música, DVD e internet, a partir de um teclado sem fio e um controle remoto, conforme noticiou o site Aving.

O produto já pode ser encontrado para compra. Mais informações sobre o W50 (dtmurl.com/a0a) e outros modelos alternativos, como o W65 (dtmurl.com/a0b), que possui um monitor plasma de 65 polegadas, podem ser encontrados a partir do site oficial da Cen.sys, em http://www.censys.de/.

Magnet

Empresa mostra TV gigante de alta definição


TV "gigante" mede aproximadamente 3,81 x 4,45 m, com diagonal de tela de 205 polegadas


A fabricante italiana Technovision apresentou na feira alemã de tecnologia CeBIT 2007 um televisor LED de alta definição de 205 polegadas, a "Luxio", que faz sombra a outro anúncio da feira, um televisor Sharp LCD de 108 polegadas.

De acordo com o site Gizmodo, a televisão mede aproximadamente 150 x 175 polegadas (3,81 x 4,45 m), com diagonal efetiva de tela medindo 205 polegadas (5,207 m).

A Technovision é uma fabricante especializada em displays de rua, um dos motivos pelos quais pouco se tem ouvido falar a seu respeito, conforme noticiou o site Tech2.

Embora não haja qualquer preço previsto ou data de lançamento, um televisor nestas proporções só deve estar direcionado a grandes empresas ou pessoas de altíssimo poder aquisitivo, foco confirmado na demonstração anterior da Luxio, acontecida em um evento para iatistas, em fevereiro.

No entanto, considerando uma das fotos promocionais do produto (no alto, à direita), em que uma bela jovem loura está sentada a cerca de 4 m da tela, a capacidade da visão para apreciar uma imagem de TV de alta definição não condiz com esta distância.

Segundo a Wikipédia, no modo de vídeo HDTV, a habilidade do olho humano em apreciar conteúdo exibido em 1080p depende do nível de contraste da imagem. Para visualização otimizada, o espectador precisa se colocar a uma distância de tela igual a três vezes a altura do display. Ou seja, com o display tendo 3,81 m de altura, o espectador precisaria se posicionar a 11,43 m de distância da tela. Em suma, a loira da foto, sentada onde está, veria uma imagem irritantemente "pixelada".

Magnet

Hitachi lança TVs de alta definição com HD removível

A Hitachi anunciou na terça-feira que planeja vender os primeiros modelos de televisores de alta definição do mundo equipados com discos rígidos removíveis.

3GSM destaca celulares com TV. Veja!
» Empresa mostra TV gigante de alta definição

Os usuários poderão ampliar a capacidade de gravação em alta definição com novos discos e a Hitachi espera que o recurso ajude a ampliar as vendas, disseram executivos.

A Hitachi prometeu trazer para o azul suas operações com TVs planas no primeiro trimestre deste ano. O maior conglomerado de eletrônicos do Japão equipará TVs de plasma e de cristal líquido (LCD) com discos rígidos internos de 250 gigabytes e discos removíveis de 80 a 160 gigabytes a partir de 20 de abril, no Japão.

A empresa espera que vender esses televisores em outros mercados nos próximos dois anos. Os discos rígidos serão programados para evitar a duplicação de conteúdo de alta definição protegido por direito autoral, apesar de permitirem a transferência de informação.

A Hitachi venderá o modelo de 160 gigabytes por cerca de 35 mil ienes (US$ 300) e o de 80 gigabytes por 20 mil ienes. O drive de 160 gigabytes é capaz de armazenar até 32 horas de programas.

Se os preços caírem no futuro, o disco rígido removível poderá eliminar a necessidade de DVDs HD-DVD e Blu-ray para gravação de alta definição. Apesar disso, a Hitachi continuará produzindo aparelhos de DVD, disse Masanori Yoshino, diretor geral da divisão de planejamento e marketing da Hitachi. "Discos rígidos são uma mídia muito diferente de discos ópticos e nós estudaremos ambas as soluções", disse o executivo.

Reuters



Torpedo alimenta blogs e permite comentários no Orkut

As mensagens curtas pelo celular ganham novas funcionalidades e caem no gosto do usuário brasileiro

Mais barato e dependendo da situação mais prático do que uma ligação telefônica, o serviço de mensagens curtas (SMS) pelo celular está caindo no gosto do usuário brasileiro. Sucesso em outros países, principalmente Japão e Coréia, o SMS (ou torpedo, como também é conhecido) demorou para fazer parte do cotidiano brasileiro, mas parece que chegou para ficar.

A indústria percebeu o potencial da ferramenta e passou a investir nela. Hoje, o SMS não serve somente para transmitir mensagens entre telefones móveis, mas também para atualizar blogs e receber e enviar recados do Orkut.

Algumas operadoras no Brasil criaram seu próprio serviço de blogs, nos quais os usuários podem criar uma página pessoal e atualizá-lo de onde estiver, com textos e fotos enviados pelo celular. Também é possível colocar comentários em blogs de outras pessoas.

O site de relacionamentos Orkut também se beneficiou desta tecnologia. Uma parceria do Google com a Claro permite que os usuários recebam, enviem e acessem o perfil de amigos através de torpedos. A Brasil Telecom também anunciou que vai permitir essa facilidade a seus clientes, mas ainda não definiu a data de entrada em operação do serviço.

Blog pelo celular
Moblog: é o serviço oferecido pela Vivo. Foi inaugurado há dois meses e conta com mais de 235 mil usuários. É fácil tanto de criar quanto de atualizar. Os textos e fotos podem ser enviados e publicados via torpedo.

Oi Blog: em termos de funcionalidade, o serviço na Oi não se difere muito do da Vivo. Permite tanto atualizar via SMS quanto enviar comentários nos blogs dos amigos. Uma diferença em relação ao do rival é a organização: o Oi Blog já possui um sistema de classificação mais sistematizado, dividido em Blogs Famosos, Top Ten, Blogs Atualizados entre outros.

Orkut
Orkut SMS: disponível somente pela Claro, que conseguiu uma parceria com o Google para envio e recebimentos de mensagens e acesso ao perfil de usuários via SMS. Depois de um cadastramento específico no site de relacionamento, o usuário pode utilizar o serviço tanto para envio de mensagens quanto para acesso a perfis e aviso de novos recados deixados por outros usuários.

Linguagem Ruby on Rails ganha adeptos entre os desenvolvedores da Web 2.0




São Paulo – Framework desenvolvido a partir de linguagem Ruby começa a se popularizar entre webmasters pela simplificação radical.
O desenvolvimento de serviços online começou com o cansativo HTML e seguiu para a mais sofisticada XML, que já separava conteúdo de formatação e abriu caminho para o AJAX, alçado à popularidade pelas exigências de interação do movimento Web 2.0.

No futuro, por que então, ao invés de confiar no talento de programação do desenvolvedor, confiar ao aplicativo muitos dos processos repetitivos enfrentados num projeto de framework?

Com nome de canção de rock, o Ruby on Rails (conhecido também como RoR) aparece cada vez mais como uma linguagem popular entre webmasters pela alta produtividade derivada na simplicidade do desenvolvimento.

Lançado em 2004 pelo programador dinamarquês David Hansson, o framework foi codificado pela linguagem Ruby como uma maneira de simplificar o trabalho de desenvolvedores online, que perdiam muito tempo em processos repetitivos.

A preocupação do Ruby on Rails em trazer processos mais simples para o desenvolvimento online se reflete em dois motes que o projeto carrega.

O primeiro que o usuário “não se repita” (do inglês, ‘Don´t Repeat Yourself’), em que partes do código não precisam ser duplicadas para atender a partes semelhantes do projeto; e o “Convenção sobre configuração” (do inglês, ‘Convention over configuration’), que prega a padronização de processos orquestrados pelo Ruby on Rails.

Em frameworks rivais, como o .Net, da Microsoft, ou o Java, da Sun, é responsabilidade do usuário definir, entre os diversos caminhos disponíveis, quais serão usados para o desenvolvimento de todas as funções
Parte do aumento de produtividade possível pelo Ruby on Rails vem da padronização de muitas destas escolhas – é o framework que define uma linha padrão que o usuário seguirá até o final do projeto.

Mas esta “inteligência artificial” não limita o trabalho? Não, afirma Ronaldo Ferraz, sócio da consultoria BitBucket, afinal o próprio usuário pode escolher se vai tomar o caminho indicado pelo framework ou não.

“Na programação, temos a teoria do ‘80/20’, em que 80% do trabalho é o mesmo tipo de programação”, afirma Ferraz. “O Ruby on the Rails pega este 80% e deixa tudo pronto para o usuário. Esta é a aplicação prática do ‘Convenção sobre configuração’”.

Tanta automatização torna o Ruby on Rails mais fácil de se programar? Fácil não é exatamente o adjetivo mais correto – afinal, mesmo formatada para ser mais simples, o Ruby on Rails ainda exige códigos.

Mas também é verdade que o framework torna o desenvolvimento de serviços online mais próximos de profissionais nem tão especializados.

Se a Web 2.0 trouxe ao usuário leigo ferramentas que permitiam a criação de blogs, álbuns de fotos e podcast, por que não os desenvolvedores poderiam ser também beneficiados?

“Como a Web 2.0 mostrou que existia algo além da velha internet, o Ruby on Rails permite uma programação mais dinâmica e ágil”, compara Ferraz.

Ironicamente, o Ruby on Rails conta também com uma biblioteca que permite a criação de serviços baseados em AJAX, linguagem característica de serviços que encampem o movimento online,

“Ambos usam a mesma metodologia. Ruby on Rails e AJAX se complementam”, afirma.

Além de AJAX, o Ruby on Rails oferece um “framework inteligente” preparado para situações, a ponto dos módulos de programação extra precisem apenas ser acoplados ao código.

Esta é a principal vantagem alegada por Manoel Lemos para o uso da linguagem na construção da ferramenta brasileira de buscas de blogs BlogBlogs.

“É muito rápida a maneira como o framework é montado para fazer uma aplicação web. Administração dos arquivos, ligação com o banco de dados, está tudo pronto na hora do projeto", afirma Lemos.

Acostumado em desenvolver projetos com a linguagem Java, Lemos afirma que se sentiu atraído pelas convenções propostas pelo Ruby on Rails, "menos enrolado do que configurar um monte de coisas como o Java".

A ligação direta que o Ruby on Rails tem com banco de dados, aliás, é outra das vantagens apontadas pelos desenvolvedores.

Além do suporte, o Ruby on Rails goza de interação suficiente com bancos de dados, como MySQL, Sybase e Oracle, para conferir automaticamente ao framework mudanças realizadas entre as informações.

A produtividade derivada da automatização de processos coloca o Ruby on Rail em franca vantagem cronológica em comparação a outras linguagens, como o PHP, por exemplo.

Lemos surpreende ao afirmar que a estrutura do BlogBlogs, com a integração da indexação de links, textos e blogs, levou apenas quatro dias, do contato com a língua ao primeiro esboço funcional.

"Sempre quem tem convenção, há restrição. O Ruby on Rails não é exceção. Mas não achei nada que prejudicasse", afirma ele. "O ganho de tempo que tive valeu demais as restrições encontradas. Hoje, não penso em fazer outros serviços online que não sejam em Ruby".

Já Ferraz cita o exemplo de dois portais que foram elaborados quase que simultaneamente. Enquanto uma empresa privada exigiu que o site fosse feito em PHP, um órgão governamental de Minas Gerais concordou com o Ruby on Rails.

“Sob estas condições, levamos quatro meses para finalizar o projeto em PHP, enquanto o serviço governamental nos ocupou por pouco mais de um mês”.

Por mais que esclareça que ambos os projetos apresentassem um nível similar de estrutura de conteúdo, Ferraz revela que, em determinados serviços online, o tempo gasto chega a ser até dez vezes menor.

A economia de tempo viabilizada pela simplificação radical da programação colocaria o Ruby on Rail como um framework de enorme potencial financeiro para desenvolvedores, não fosse sua ainda baixa popularidade no mercado corporativo.

“Atualmente, qualquer empresa, ao elaborar um site, já pensa em fazer em .Net e Java, graças ao suporte das gigantes por trás (Microsoft e Sun, respectivamente)”, define Ferraz.

Lemos também segue a mesma linha de pensamento. "Não vejo (o RoR) como um perigo ao Java ou ao .Net. O mercado tem espaço para todos, basta que o Ruby foque no seu nicho", diz ele, remetendo a serviço que apelem para a Web 2.0.

A baixa popularidade faz parte da aceitação de qualquer nova linguagem no mercado corporativo - o AJAX é um ótimo exemplo.

Mesmo que tenha sido criada no começo de 2005, ela vem deixando de lado a imagem de linguagem com potencial para se transformar em serviços de grandes empresas nos últimos meses.

Com menos de três anos de vida, o Ruby on Rails já tem espaço entre entusiastas, desenvolvedores e empresas menores. Neste ritmo, não precisará de muito tempo até que as grandes corporações, que já aceitam projetos internos, como intranets, com o framework, elaborem maneiras de entrar nos trilhos.

Intel versus AMD: quem está na frente da batalha dos chips móveis




Framingham - Evolução dos processadores móveis indica que o problema da curta duração da bateria pode estar com os dias contados.

Pergunte para qualquer um sobre o problema máximo do laptop. A resposta terá três palavras: duração da bateria. Em uma era em que quase todos estão trocando seus desktops por notebooks, soa muito obsoleta a incapacidade da máquina portátil de ficar ligada por mais de quatro ou cinco horas seguidas sem precisar da tomada.

Felizmente parece que os líderes do mercado Intel e AMD estão trabalhando para resolver o problema. O conceito de desempenho por watt (performance-per-watt) começa a dominar os refletores. O que isso significa? Quanto mais desempenho por watt o chip tiver, mais baixa é a sua temperatura interna e menor é o seu consumo de energia. Para laptops, esses dois elementos são críticos e, se resolvidos, vão culminar em maior duração da bateria.

Geralmente, as velocidades dos processadores em laptops cresceram à custa da duração da bateria. Entretanto, o lançamento dos processadores móveis Core 2 Duo da Intel, em 2006, alardeou o aumento de performance enquanto caiu o consumo de energia. A gigante azul de processadores pode, contudo, manter o ritmo?

Ao se considerar o quão importante é a categoria de computação móvel nos lucros totais, está claro que a AMD terá que entregar produtos substancialmente melhores para mexer com o domínio da Intel. Será que a AMD é capaz?

Abaixo você encontra indicações das respostas, incluindo uma surpreendente e nova estratégia em design da AMD.


Intel puxa a liderança

A AMD pode ser a maior quando se fala em participação de mercado no setor de estações de trabalho, mas a Intel mantém uma vantagem sensível em processadores móveis. Grande parte desse domínio se deve à grande popularidade da plataforma Centrino (envolve obrigatoriamente a combinação de processadores móveis, com chipset da placa mãe e a interface de rede sem fio).

O sucesso esmagador do processador Core 2 Duo e a recente parceria com a Apple também aumentou o domínio do mercado móvel da Intel sobre a AMD. Para preservar e aumentar essa vantagem, a Intel está apostando forte em duas inovações tecnológicas: uma nova plataforma Centrino chamada “Santa Rosa” e o lançamento de uma nova arquitetura de processadores chamada “Penryn”.

Espera pelo “Santa Rosa”

No segundo trimestre de 2007 (rumores indicam que será no mês de abril), a Intel vai lançar a quarta geração da plataforma Centrino chamada “Santa Rosa”.

E “Santa Rosa” é grande aposta para a Intel. Além de suportar os processadores Core 2, a plataforma vai oferecer uma série de novidades, com aumento na velocidade do front-side bus e melhor controle de energia em momento de baixa utilização, incluindo uma nova forma de Bios (informações em inglês).

Depois de lançada, a nova variação da plataforma Centrino vai ser chamada Centrino Pro.

Chip de dois núcleos de baixa voltagem

Na primeira metade de 2007 serão lançados novos chips Core 2 Duo, incluindo o lançamento de CPU de baixa voltagem e de baixíssima voltagem. Baseados nos bons resultados em desempenho por watt das CPUs móveis do Core 2 Duo, é bastante provável que esses chips venham oferecer níveis semelhantes no tema, assim como uma vida de bateria sem precedentes.

Já no primeiro trimestre de 2007, a Intel lança o L7400 e L7200, os primeiros chips de baixa voltagem na arquitetura Core 2 Duo. A previsão de velocidade está em 1,5GHz e 1,33GHz, respectivamente. No começo do segundo trimestre de 2007, a Intel vai lançar os processadores de baixo consumo L7500 (1,6GHz) e o L7300 (1,4GHz). Além disso, a Intel vai lançar seu primeiro processador de baixíssima voltagem na arquitetura, o U7500. Relatórios indicam que será um processador de núcleo duplo com 1,06GHz.

Atenção ao “Penryn”

No final de 2006, a Intel anunciou sucesso na produção de protótipos da linha de processadores em 45 nanômetros chamados “Penryn”. A empresa afirmou que pretende começar a produção na segunda metade de 2007.

O Penryn é baseado na arquitetura Core da Intel, mas reduz o tamanho da CPU de 65nm para 45nm. Geralmente, um processo menor de fabricação gera mais velocidade no relógio, assim como melhora na eficiência térmica e queda no consumo de energia. Com a mudança rápida, a Intel espera garantir uma vantagem competitiva segura, atingida graças ao uso da tecnologia em metal chamada “high-k”, que permite a produção de transistors mais eficientes. A rival AMD só conseguirá produzir partes 45nm em meados de 2008.


As inovações da AMD podem diminuir a diferença?

A aquisição da ATI pela AMD levantou inúmeras sombrancelhas. Analistas, jornalistas e especialistas no setor se uniram nas dúvidas sobre as perspectivas da união. Como o Windows Vista utiliza unidades de processamento gráficos 3D (GPUs) para renderizar sua interface, a fusão pode gerar dividendos para a AMD-ATI no mercado móvel, que se apóia quase que exclusivamente nos processadores gráficos integrados.

Rumores iniciais indicam que a fusão promete processadores móveis inovadores chamados “Fusion” no final de 2007 ou no início de 2008. Enquanto isso, AMD reforça o caminho no sentido de melhorar sua plataforma móvel em passos interessantes.

O “Hawk” 65 nm chega no início de 2007

Ano passado, a Intel retomou a inovação tecnológica ao usar a fabricação de processadores móveis em 65 nm, enquanto a AMD manufaturava com os menos eficientes chips de 90nm. Por isso, uma das prioridades da AMD para 2007 está em atualizar sua linha de CPU móveis com partes de 65nm. A expectativa para a mudança nas linhas Turion 64 X2 e Mobile Sempron com 65nm é para o primeiro trimestre de 2007. Eles serão a base para o futuro dos processadores móveis 65nm.

Chamados “Hawk”, esses três CPUs terão novas funções, incluindo mais eficiência térmica. A AMD alega que, em estado ocioso, o chip consome 33% do que o Core 2 Duo da Intel consome no mesmo estado.

Um dos pontos mais intrigantes da atualização da plataforma está na noção de chips gráficos híbridos. Um processador desses vai permitir a presença de duas unidades de processadores diferentes: uma rápida e poderosa GPU que não vai estar integrada à placa-mãe; com a outra GPU integrada à placa-mãe e de menor performance. Em teoria, o chipset vai ser capaz de aumentar a vida da bateria ao desativar o processador não integrado à placa-mãe no momento em que o laptop está rodando na bateria.

O que não ajuda a AMD é que sua plataforma móvel é uma recomendação, não um requerimento, o que entra em confronto com a forte ênfase da Intel em partes específicas e especificações claras do altamente reconhecido Centrino. Além disso, apesar da AMD ainda não construir chipsets sem fio, a companhia garante que o Hawk será compatível com o padrão de Wi-Fi 802.11n.


“Griffin” adiciona tecnologia HyperTransport 3

Alguns meses depois, AMD a deu indicações de que vai lançar outro processador móvel chamado “Griffin”. Também construído sobre 65nm e suportando DD2 800MHz RAM, o produto tem a diferença fundamental de ter o HyperTransport 3, tecnologia que vai gerar mais velocidades de bus e habilidade do processador de diminuir a velocidade ou fechar núcleos individuais se eles não estão sendo utilizados no momento.

Ainda que a AMD tenha se recusado a falar sobre o Griffin, a presença do HyperTransport 3 levou analistas a acreditarem que o Griffin vai estrear na forma de um CPU de quatro núcleos. Tudo indica que o lançamento do Griffin vai coincidir com a completamente nova plataforma da AMD móvel e sem fio chamada “Puma”, que suportaria arquitetura de quatro núcleos, com melhor gerenciamento da energia e compatibilidade com padrão 802.11n.

Aguardando o “Fusion”

Ainda que a AMD não vá lançar seu processador móvel de 45nm até o final de 2008, a empresa foi sincera sobre seu trabalho em um processador inovador chamado “Fusion”.

O processador Fusion é uma CPU multi-core, mas em vez de utilizar dois ou mais idênticos núcleos de CPU, a AMD vai fundir as unidades de processamento do computador com as unidades de processamento gráfico no mesmo chip multi-core. Isso representa uma abordagem relativamente nova na manufatura de chips chamada processamento heterogêneo, um termo que vai crescer em 2007. A AMD anunciou um nome proprietário para a metodologia: Accelerated Processing Units.

Na prática, o que os processadores Fusion vão representar no mundo real para os usuários de laptop? Ainda é cedo para uma resposta definitiva, mas vai aumentar a velocidade nas trocas de informações entre o CPU e o hardware gráfico, o que é interessante para jogos ou para a interface do novo Windows. Em teoria, um CPU/GPU integrado poderia diminuir o consumo de energia e facilitaria a fabricação de laptops ainda menores. Como comparação, a Intel não ofereceu nenhuma indicação de produção de CPU/GPU integrados.

Pode esse road map da AMD significar uma reviravolta em presença de mercado parecida com a que aconteceu no lançamento dos processadores de estação de trabalho Athlon 64 há três ou quatro anos? Só o tempo responderá e nós estaremos atentos.

George Jones é editor do Computerworld, em Framingham

Vem Aí o Novo Computador ! O Computador Quântico


São Paulo – Tecnologia vai revolucionar a computação em complexidade e velocidade. Saiba o que é realidade e ficção sobre esta nova tendência.
A promessa de uma nova era para a computação avançada. É assim que pode ser descrito o anúncio feito pela canadense D-Wave no ultimo mês. A empresa prometeu entregar o primeiro computador quântico comercial em 2008 e demonstrou via videoconferência um protótipo em funcionamento, causando polêmica pela falta de um modelo físico que saciasse a curiosidade dos mais céticos, mas gerando entusiasmo pela perspectiva de uma solução para os problemas mais complexos que sequer os mais poderosos supercomputadores clássicos são capazes de resolver.

Mas o que muda, afinal, com a computação quântica? Para responder essa pergunta, é preciso passar rapidamente por alguns conceitos da mecânica quântica, ramificação da física cujos princípios são utilizados na computação quântica.

> Fotos: veja o 1º computador quântico

Um dos principais conceitos propostos pela mecânica quântica que é importado para a computação quântica é o princípio da superposição. Pela mecânica quântica, uma partícula pode estar em diferentes estados simultaneamente. Isso significa que ela pode estar em diferentes posições ou diferentes tempos – passado e futuro.

“O entendimento disso não é muito fácil porque não tem paralelo no mundo clássico”, admite o pesquisador Renato Portugal, do Laboratório Nacional de Computação Científica (LNCC), do Ministério da Ciência e Tecnologia. “A gente tem que acreditar por ser a única explicação plausível para fenômenos que se observa no mundo subatômico. Isso não entra em contradição com o mundo que a gente conhece porque lá os fenômenos são muito rápidos”, complementa.

Zero e um

A apropriação deste princípio pela computação tem um efeito ainda mais estranho, à primeira vista: enquanto o bit, unidade que representa um caractere de dado na computação clássica só pode assumir o valor zero ou o valor um. Já o qubit, equivalente na computação quântica, pode assumir os valores zero e um ao mesmo tempo.

“O bit clássico assume ou valor zero ou um. Isso vem da própria física clássica - não é possível sobrepor duas coisas diferentes. O que a mecânica quântica diz, por incrível que pareça, é que os dois estados - zero e um - podem coexistir fisicamente”, resume o pesquisador.
Outro princípio da mecânica quântica que fundamenta este novo modelo de computação é o conceito de emaranhamento. “Quando o sistema é emaranhado dá pra descrevê-lo como um todo, mas quando se olha para as partes você não consegue descrever o seu estado. Mais que isso, a mecânica quântica diz que não existe o estado, o sistema só existe enquanto estar junto, como o todo. Como se diz no popular, o todo não é a soma das partes”, brinca o professor.

Várias variáveis

Na prática, essa combinação de princípios na computação é poderosa. Ela permite que o computador quântico seja capaz de lidar com problemas que envolvem um volume de dados complexos e variáveis com os quais o computador clássico não é capaz de lidar.

“O problema usado como exemplo típico é aquele em que você tem o número de telefone da pessoa e quer descobrir o nome. A questão é que as listas não estão ordenadas por número e sim por nomes”, explica o pesquisador. “Não há nada estruturado que diga onde procurar o número e você tem que olhar os nomes um a um. Como a lista é muito grande, você desiste de fazer isso”, explica.

“Já na computação quântica, você poderia fazer de maneira mais rápida porque é possível testar as diferentes possibilidades ao mesmo tempo. A idéia é que você pegaria todos os números da lista e colocaria no estado de superposição. Então você executa o cálculo, que seria processar o nome associado ao telefone em todos os números ao mesmo tempo. É o chamado paralelismo quântico”, detalha.

Na computação clássica, o mesmo problema teria que ser processado de forma serial (com um cálculo sendo processado em seguida do outro) ou em computação paralela, o que exigiria muitos processadores. “Na computação quântica, estamos falando de um único processador. Você consegue fazer cálculos com diferentes valores ao mesmo tempo”, explica Portugal.

“É claro que no caso da lista você poderia simplesmente ordenar os números, mas há outros problemas que não podem ser ordenados porque não tem estrutura nenhuma”, esclarece o pesquisador. De acordo com ele, vários ramos da indústria hoje lidam com problemas altamente complexos e poderiam se beneficiar muito da computação quântica.

Mas segundo o pesquisador não é apenas nos problemas de otimização – como são conhecidos problemas não-estruturados, como o exemplo da lista telefônica – que a computação quântica oferece ganhos. A primeira aplicação a revelar o potencial da computação quântica ficou conhecida como algoritmo de Shor, descrito em 1994, por Peter Shor.

“Ele permite achar divisores de um número inteiro de maneira muito eficiente, mesmo quando falamos de números muito grandes. Não há nenhum algoritmo equivalente na computação clássica. Foi a primeira comprovação em termos de software de que a computação quântica seria útil”, explica o cientista, acrescentando: “Os problemas de otimização têm ganho de velocidade na computação quântica, mas não tão grande quanto o algoritmo de Shor. É um ganho exponencial”,.

Efeitos práticos

Diante de tanto potencial, é fácil entender o alvoroço causado pelo anúncio feito pela D-Wave há um mês. Embora a computação quântica venha sendo pesquisada há cerca de 25 anos, se a promessa da canadense for cumprida, dentro de pouco mais de um ano as empresas poderão ter à mão pela primeira vez este tipo de benefício.

Embora tenha sido criticada por membros da área acadêmica, que questionaram o fato de a canadense ter demonstrado o equipamento em Mountain View, na Califórnia (EUA), apenas via link pela web – sem retirá-lo dos laboratórios em Vancouver (Canadá) -, a demonstração teve sua veracidade atestada por nada menos que a agência espacial norte-americana NASA.

Para Portugal, a demonstração é um marco, não em avanço tecnológico, mas em termos do prazo para a criação de aplicações práticas à computação quântica. “Antes da empresa canadense estava todo mundo dizendo que era algo para daqui a dez anos ou mais. Acho o prazo deles ambicioso, mas possível”, opina o cientista.

De acordo com o pesquisador, a transição do ambiente acadêmico para o comercial pode impulsionar o desenvolvimento no sentido de usos mais específicos. “A empresa tem condições de levantar recursos e caminhar em direção à solução do problema pratico, que é fazer funcionar e vender. No ambiente acadêmico se explora mais idéias, se discute muito, e sobra menos tempo para coisas práticas”, reconhece.

Aspectos técnicos

Apesar do importante passo em direção o uso comercial da computação quântica, a empresa ainda não demonstrou grande evolução no hardware, segundo o pesquisador. “Tem grupos de pesquisa que conseguem dominar a tecnologia de 9 qubits e essa empresa canadense deu um salto pequeno, apresentando um computador de 16 qubits. Não foi uma coisa extraordinária, mas isso mostra que eles devem ter um mínimo de seriedade”, opina.

O cientista explica que o grande salto de evolução da computação quântica deve se dar após o rompimento da fronteira dos mil qubits. “Até 100 qubits é possível tentar fazer simulações equivalentes em computadores clássicos, então não vai ter grandes novidades. Mas quando você chega aos mil qubits entra em uma área que a computação clássica não consegue fazer”, detalha ele.

A D-Wave prometeu atingir o marco em 18 meses, chegando aos 32 qubits no final de 2007, depois a 512 qubits e 1.024 qubits até o final de 2008. “Uma questão importante é que parte dos qubits eles vão reservar para fazer correção de códigos. Na máquina clássica é fácil, mas como a quântica trabalha com átomos individuais é preciso reservar uma parte grande da capacidade para correção”, explica.

Há diferentes modelos possíveis de hardware quântico. O computador da canadense será um híbrido, rodando aplicações em processadores digitais clássicos e utilizando um único processador quântico como acelerador e co-processador.

O chip quântico, cujo protótipo foi desenhado pela D-Wave e fabricado sob encomenda pela NASA, é feito de materiais supercondutores, como alumínio e nióbio, e depois resfriado em um tanque de hélio líquido.

Pesquisa nacional

Enquanto o primeiro computador quântico comercial permanece no campo das promessas, as pesquisas acadêmicas avançam. No Brasil, além do grupo de Portugal, no LNCC, que reúne orientandos de projetos de iniciação científica, mestrado e doutorado sobre o tema, outros núcleos de pesquisa em universidades públicas no Rio de Janeiro e na Paraíba, entre outras, trabalham na área de desenvolvimento de software para computação quântica.

“Não temos computadores quânticos, mas não é problema porque depois que se tem as regras do jogo, só é preciso saber se as está satisfazendo corretamente. É suficiente para que quem tem computadores quânticos à mão possa implementar”, justifica Portugal

Segundo o cientista, os grupos ligados a harware quântico no Brasil trabalham com pequenos protótipos, mas cooperam principalmente com os grandes grupos internacionais de pesquisa na área. “São poucos lugares no mundo que dominam a ponta da tecnologia. O pessoal de hardware tem contato com esses grupos. O que é feito no Brasil não é a última fronteira em hardware. Mas os grupos daqui têm uma presença importante na pesquisa que ajuda na construção desses hardwares. São reconhecidos internacionalmente”, conclui o pesquisador.

Primeira usina flutuante gera energia a partir do movimento das ondas


Balsas gigantes
Três imensas balsas vermelhas, com 142 metros de comprimento, 3,5 metros de diâmetro e 700 toneladas, estão sendo ancoradas no litoral de Portugal. Ao custo de 8,5 milhões de euros, ainda em 2007 as balsas gigantes irão gerar 2,25 megawatts de eletricidade, suficientes para abastecer 1.500 residências.



Navegar é preciso, já dizia Fernando Pessoa. Para os seus compatriotas, boiar também. Pelo menos é o que acreditam os engenheiros responsáveis pelas três imensas balsas vermelhas, com 142 metros de comprimento, 3,5 metros de diâmetro e 700 toneladas, que estão sendo ancoradas no litoral de Portugal. Ao custo de 8,5 milhões de euros, ainda em 2007 as balsas gigantes irão gerar 2,25 megawatts de eletricidade, suficientes para abastecer 1.500 residências.

Mas o Parque de Ondas da Aguçadora, nome da praia em frente a qual o projeto está sendo montado, é muito mais ambicioso. Orçada em 70 milhões de euros, a primeira fazenda de aproveitamento da energia das ondas do planeta terá, em 2009, um total de 28 balsas capazes de gerar 24 megawatts, o bastante para suprir as necessidades de 250 mil habitantes de forma limpa e renovável.
As estruturas cilíndricas flutuadoras que lembram banana-boats são construídas na Escócia pela Ocean Power Delivery. O passo seguinte é rebocá-las desde o Atlântico Norte até o litoral português, onde são ancoradas num local com 50 a 60 metros de profundidade, a 5 quilômetros da costa de Póvoa de Varzim, cidadezinha a beira-mar próxima do Porto, no norte do país.

As balsas são semi-submersíveis e articuladas: ligam-se como gomos umas às outras, assim como acontece com os rolos de salsicha. Cada unidade geradora possui três gomos, dispostos em posição perpendicular à costa, de modo a "pegar" as ondas de frente.

Num movimento de gangorra, as balsas sobem e descem ao sabor da ondulação. No interior de cada uma delas existe óleo em alta pressão, que é movido para frente e para trás através de motores hidráulicos. Estes, por sua vez, acionam geradores que produzem 750 quilowatts de eletricidade, transferida por meio de um cabo submarino até o continente.

A fase final do projeto, de propriedade da geradora portuguesa Enersis, prevê investimentos de 1,1 bilhão de euros até 2015 na construção de um conjunto de parques de ondas com capacidade de 525 MW, que irão gerar energia para mais de cinco milhões de pessoas.

A solução inovadora de geração de energia, que se soma às fazendas eólicas disseminadas entre a Dinamarca e a Inglaterra, já produziu frutos. No último dia 20 de fevereiro, a empresa Scottish Power anunciou a construção da sua fazenda de ondas, que será fincada em 2008 no litoral das ilhas Orkney, ao norte da Escócia.

O projeto, avaliado em 10 milhões de libras (ou 15 milhões de euros), será o primeiro do Reino Unido e irá gerar 3 megawatts de eletricidade para atender 3 mil moradias durante 25 anos.

Klevzton Luta para manter os Blogs Kvowster

Na Luta ele tenta manter os seus Blogs os Blogs Kvowster;sem dinheiro,ele vai arrastando,mais espera que isto possa mudar,ele procura captar informações no mundo web e procura direcioná-los da maneira mais compacta tentando manter o leitor informado.Mais talvez em breve isto poderá mudar e com uma ajuda financeira poderá conseguir manter todos os Blogs.Obrigado leitor.

Apenas um terço dos estudantes brasileiros acessa a internet



Cerca de metade da população estudantil não tem acesso a um computador.
71% dos internautas e 90% dos estudantes utilizam a internet para aprendizado.


Educação e aprendizado são o principal motivo que leva as pessoas a utilizar a internet no Brasil. Mas ainda são poucos os estudantes que têm acesso à rede, segundo uma pesquisa divulgada nesta sexta-feira (23) pelo IBGE, que mostra o perfil do internauta brasileiro.

Das pessoas entrevistadas, 71,7% disseram utilizar a internet para educação e aprendizado (o percentual é de 90% entre os estudantes). O número alto se deve ao fato de a rede mundial ser dominada por uma maioria de pessoas jovens, muitos deles estudantes.



Para se ter uma idéia, pouco mais de um terço dos estudantes brasileiros (36% ou 14 milhões de pessoas) acessa a internet. O número é baixo. No resto da população brasileira, no entanto, esse percentual é ainda menor: 16% das pessoas que não estudam usam a rede. O resultado desses dois números é que apenas 21% dos brasileiros podem ser chamados de internautas (32 milhões de pessoas).

A pesquisa aponta também as maiores barreiras para melhorar esses números. Cerca de metade da população estudantil (50,6%) não usa a internet por não ter acesso a um computador. Entre os não-estudantes, é menor o número de pessoal sem computador, cerca de um terço. A explicação, segundo o IBGE, é o baixo número de computadores nas escolas. Apenas 18% dos estudantes acessaram a internet em estabelecimento de ensino. Cerca de 5% disseram utilizar somente esse local.

Além de haver poucos computadores com acesso à internet nas escolas, há poucas opções de internet gratuita. Apenas 10% dos entrevistados disseram ter utilizado centros públicos de acesso à rede.

Outro problema: de cada cinco estudantes, um não sabe usar a internet. O percentual é praticamente o mesmo da população de não-estudantes. A pior situação foi encontrada no Amazonas, onde 41,3% das pessoas não sabe usar a rede. Em Roraima e Amapá, o percentual equivale a cerca de um terço da população. Nos estados do Sul e Sudeste, gira em torno de 15%.


"Os estabelecimentos de ensino que disponibilizam o acesso à internet para os seus alunos possibilitam a utilização desta rede por aqueles que não teriam como utilizar este recurso em outros locais, o que contribui para ampliar a parcela da população que utiliza esta ferramenta virtual", diz o IBGE.


Na população dos estudantes usuários da Internet, a proporção dos que a utilizaram para educação e aprendizado foi destacadamente a mais elevada (90,2%), vindo depois, mais distanciadas, as dos que a acessaram para comunicação com outras pessoas (69,7%) e atividades de lazer (65,5%). A proporção dos estudantes que a acessaram para a leitura de jornais e revistas alcançou 40,7% e as referentes às demais finalidades ficaram abaixo de 20%.


Jovens

O fato de haver mais internautas entre os estudantes do que entre as pessoas que não estudam, ajuda a definir o perfil do internauta brasileiro.

“Considerando a população por faixas de idade, verificou-se que a utilização da internet estava mais concentrada nos grupos etários mais jovens”, diz o IBGE.

O brasileiro que utiliza a internet tem, em média, 28 anos. Depois da educação, a maioria diz utilizar a rede para se comunicar com outras pessoas (é importante lembrar que uma pessoa pode usar a internet com mais de um objetivo).

Essa população jovem também mostra outras preferências na hora de navegar pela rede. Mais da metade dos entrevistados (54,3%) disseram usar a internet para atividades de lazer e quase metade (47%) utiliza para ler jornais e revistas.

Outros quatro pontos que definem o perfil do internauta são:

1-) O nível de escolaridade do internauta é praticamente o dobro (10,7 anos de estudo) em relação às pessoas que estão fora da rede;

2-) O número de homens (22%) é praticamente o mesmo do de mulheres (20,1%). A diferença é que as internautas são maioria entre os menores de 24 anos e minoria na população acima dessa idade;

3-) O salário médio de quem acessa a rede é de R$ 1.000, praticamente o triplo em relação aos sem internet (R$ 333);

4-) O percentual de pessoas que utilizaram a internet é maior entre os profissionais das áreas de ciências e artes (mais de 70% utiliza a rede). Ainda entre os trabalhadores, os maiores percentuais de internautas estão entre militares e funcionários públicos (48% acessam a internet), seguidos pelos empregadores (40,6%) e pessoas com carteira de trabalho assinada (32,6%).

Câmera digital se esconde em colar que registra "emoções" do dono



Colar hi-tech da empresa japonesa Nec registra momentos mais emocionantes de seu usuário

Colocaram uma filmadora dentro do seu colar. O aparelho chama-se Dew --"orvalho", em inglês. Ele também faz fotos em 5 Mpixel e tem autonomia de registrar os momentos que avaliar serem os mais "emocionantes" de seu dono. O produto foi exibido nesta quinta (15) no primeiro dia da feira de tecnologia Cebit, em Hannover, no norte da Alemanha.
O Dew é composto por uma câmera e um visualizador. A lente fica no colar e o suporte para ver o que foi registrado é um porta-retratos de LCD. A transferência da imagem de um para o outro acontece sem uso de fio.

O usuário pode acionar a máquina apertando sua lateral ou deixá-la fazer o trabalho sozinha. Um "sistema de reconhecimento emocional" decide o que merece ser deixado para a posteridade.

Após reconhecer um padrão de ruídos e de movimentação de quem está o usando, o aparelho fica atento para qualquer mudança de comportamento. Se o dono, por exemplo, gritar, chorar, pular ou mexer sua mão de maneira brusca, o colar tira fotos e registra pequenas cenas de quem está ao redor.

A gargantilha hi-tech, elaborada pela fabricante japonesa de alta tecnologia Nec, ainda não tem data para ser comercializada, tampouco preço.

Empresas maltratam produtos para mostrar durabilidade

Após ficar menor, sem fio e ganhar um design mais atraente, seu próximo aparelho precisará ser mais durão.

Na Cebit, expositores resolveram maltratar suas máquinas. Algumas foram fechadas em ambientes com neblina artificial; outras, arremessadas no chão. O mais comum eram aparelhos submersos.

Além da qualidade do material, há outros motivos para as empresas pensarem no tempo de vida dos lançamentos.

A cada ano são produzidas entre 20 mil e 50 mil de toneladas de lixo eletrônico no mundo, segundo as Nações Unidas.

A maior responsável, diz a organização, é a velocidade com que os aparelhos são trocados. Mostrar que se importa com o planeta faz parte do marketing das empresas.

A DRS-Technologies, fornecedora do Exército dos EUA, lançou tablet PCs para usuários domésticos. Eles pesam 2 kg, têm LCD de dez polegadas, 1 Gbyte de memória e agüentam temperaturas de -40ºC a 70ºC.

Vale lembrar que a rapidez com que os aparelhos são substituídos é fruto principalmente da velocidade com que evoluem. Para esse mal, as empresas não têm, ainda, solução.

Televisão no celular é aposta na Europa


Visitantes assistem televisão no celular

Em 2008, o europeu poderá, entre uma ligação e outra, assistir aos jogos da Eurocopa em seu telefone móvel, gravando os melhores momentos ou comentando com quem estiver do outro lado da linha.

Se ele tiver um telefone como o Samsung Ultra Mobile TV F510, revelado na Cebit, ele também vai ler e-books, ouvir música, filmar e navegar na web em alta velocidade (pelo sistema HSDPA).
Tudo isso será feito em um aparelho de 11,6 cm de comprimento por 5,4 cm de largura e 1,07 cm de espessura.

A solução que a Samsung achou para colocar a vida digital em produto com essas medidas foi fazê-lo frente e verso.

De um lado, funciona a parte de vídeo, música e TV, em uma tela de 2,4 polegadas. Do outro, está o celular em si, com uma tela de 1,5 polegada.

O aparelho chama a atenção pelo design. Sua parte inferior pode ser girada em até 180º para a saída de uma antena. O F510 tem 410 Mbytes de memória, expansível a até 1 Gbyte.

"Além de ser uma aposta na convergência, para a Samsung, o aparelho é uma aposta no visual", afirma Nicole Jamson, representante da empresa.

A União Européia tem 2008 como meta para expandir a tecnologia de TV móvel para o continente. Enquanto a Eurocopa de 2008 não chega, as fabricantes mostram aparelhos que reúnem telefone e TV.

É o caso da taiwanesa Gigabyte Communications, que mostrou na Cebit seus primeiros modelos nesse segmento.Sua linha, a GSmart, também vai apostar no HSDPA, que permite baixar filmes em minutos.

O GSmart t600 funciona com o Windows Mobile 6, tem Wi-Fi e Bluetooth e suporta TV e rádio via DVB-T, DVB-H (transmissão de TV), DAB e T-DMB (transmissão de rádio).

A transmissão de TV em aparelhos portáteis passa, ainda, pela definição do modelo de transmissão. A DVB-H é a tecnologia que deve predominar na Europa.

Aparelhinhos que fazem de tudo são atração na Cebit


Visitante observa produtos eletrônicos na Cebit

Maior feira de tecnologia do mundo, a Cebit 2007 mostrou a tendência cada vez mais forte de reunir tudo em um único aparelho --portátil e com internet rápida sem fio.
Essa novidade, que permite ao usuário carregar a sua vida digital no bolso --internet, e-mail, música, TV, filmes, fotos e telefone--, veio em duas versões apresentadas no evento, que termina hoje em Hannover, na Alemanha.

Uma possibilidade são os celulares com recepção de TV móvel, que também reúnem funções de toca-MP3, vídeo, câmera digital e e-book.

A adoção de celulares que sintonizam TV digital deve acontecer rapidamente na Europa. Lá, a maioria dos países tem TV digital terrestre.

Do outro lado estão os UMPCs (PCs ultramóveis), voltados aos usuários que querem um computador completo. Evolução dos tablet PCs, os UMPCs são menores e mais leves e contam com telas sensíveis ao toque e teclados.

Dessa briga já se pode tirar um resultado: o PC que fica em casa, paradão, não deve sobreviver daqui a alguns anos.

Toda essa mobilidade, no entanto, pede adaptações. A feira também mostrou que, para sair de casa, seu portátil precisará ser mais resistente. Os fabricantes querem demonstrar que seus aparelhos não temem os elementos e duram mais --nos estandes, colocaram eletrônicos na água e na neblina.

Táticas para ganhar mercado Microsoft paga a usuários


Pode parecer uma tática desesperada ou mesmo um mecanismo de concorrência desleal, mas o fato é que a Microsoft está oferecendo pagamentos em serviços ou créditos a grandes corporações. desde que os funcionários das ditas cujas usem o serviço de buscas da Microsoft. Quanto mais buscas, mais créditos.

Trata-se de um programa chamado “Microsoft Service Credits for Web Search” . Quem levantou a lebre foi o blogueiro John Battelle em seu Searchblog. Basicamente, a empresa ganha créditos com base na quantidade de pesquisas feitas por seus funcionários. Depois, pode converter seus créditos em produtos ou programas de treinamento.

O projeto experimental foi confirmado pela porta-voz do Windows Live, Whitney Burk. Segundo ela, em troca as companhias dão à Microsoft informações sobre o mecanismo de busca e seu uso.

O pagamento começa em US$ 25 mil apenas pela participação no programa, mais de US$ 2 a US$ 10 por computador por ano (o que pode dar uma bela soma se a empresa tiver um bom número de computadores. No blog, Battelle publicou parte de uma apresentação em PowerPoint a que teve acesso mostrando que uma empresa com 10 mil PCs e alto volume de pesquisas poderia levar uns US$ 120 mil por ano, e uma com 50 mil PCs e volume médio de buscas atingiria US$ 200 mil.

Obviamente o feitiço pode virar contra o feiticeiro, pois muita gente pode ficar insatisfeita se for obrigada pelo empregador a usar um determinado serviço de busca.

Que, por sinal, hoje é mais fraco do que o concorrente. No instante em que acabei de escrever a última frase, pulei para as páginas do Google e do Live Search para um teste rápido. Usei a palavra “âncora”, e o Google me devolveu imediatamente uma página com 20 resultados de 99,1 milhões de documentos. O Live Search devolveu uma página informando, em inglês, que eles pediam desculpas, mas o serviço não estava disponível naquele momento.
Escrito por Rodolfo Lucena

Blu-ray chega ao Brasil e oferece imagem de qualidade surpreendente







A melhoria de qualidade de imagem trazida pelo Blu-ray, o novo formato de alta definição de vídeo, é gritante como um hipopótamo cor-de-rosa.

Testado pela Folha com exclusividade, o BD-P1200, da Samsung (R$ 4.999, www.samsung.com.br), é um dos primeiros aparelhos de Blu-ray a chegar ao país, apresentando a competência do novo formato para dar realismo às imagens.

As cores são reproduzidas com enorme nitidez, enquanto o brilho ajuda a conferir uma boa luminosidade. Detalhes como a textura de algumas superfícies são exibidos com uma fidelidade impressionante.

Compatível com sistemas de áudio 5.1, a qualidade do som também chama a atenção; os ruídos são reproduzidos de maneira mais pura.

Comandos

Mas, apesar de todo esse apelo de sedução, o Blu-ray ainda não colocou todas as suas armas à mostra. Isso porque, por ser uma mídia nova, ainda não há muitos filmes que fazem proveito de todos os recursos possíveis.

Assim, o telespectador pode se frustrar ao acionar um comando pelo controle remoto e descobrir que a função não está disponível.

Uma das maiores decepções no teste, com os filmes "xXx" (2002) e "Stealth" (2005), foi verificar que os títulos não ofereciam a opção de mudar o ângulo da câmera para assistir às cenas sob outra perspectiva nem de realizar buscas por cenas. Por esse mecanismo, o telespectador poderia pesquisar por atores, por personagens ou por cenas. Os resultados seriam exibidos em miniatura, o que facilita a navegação.

Ainda assim, os recursos do Blu-ray são bem mais versáteis que os do DVD. Para adiantar ou colocar uma cena em câmera lenta, há várias velocidades disponíveis, sendo possível até uma passagem quadro a quadro.

Outro recurso interessante é a marcação de favoritos: pelo controle remoto, o usuário marca os trechos de que mais gosta e passa a poder voltar a eles por um menu especial -se o disco for retirado, a seleção é apagada.O BD-P1200 também lê DVDs e CDs comuns e regraváveis, discos de MP3 e cartões de memória (Memory Stick, SD e Multi Media, entre outros).

Sobrevivência

O Blu-ray é uma das possibilidades para os filmes de alta definição; a outra responde pelo nome de HD DVD. Ambos disputam o posto de substituto do DVD, formato que vai sendo ultrapassado pelo aumento de qualidade que essas novas mídias proporcionam aos filmes.

A melhora de performance se deve, em grande parte, à maior capacidade desses discos. Isso porque o espaço que pode ser preenchido por dados e informações é convertido em imagens e som detalhados e em novas funções.

Enquanto um disco de DVD comum dispõe de 4,7 Gbytes para armazenar conteúdo e o DVD de camada dupla (dual-layer) oferece 8,5 Gbytes, a capacidade de um disco Blu-ray é de 25 Gbytes, podendo até chegar a 50 Gbytes, no caso de um disco de camada dupla. No caso do HD DVD, o espaço oscila entre 15 Gbytes (comum) e 30 Gbytes (camada dupla).

Essa diferença de capacidade encorajou Frank Simonis, diretor do braço europeu da Blu-ray Association, a afirmar que, em três anos, a mídia derrotará o HD DVD de uma vez por todas.

Fica difícil, porém, garantir isso quando o grupo apoiador do HD DVD conta com nomes de peso como Toshiba, NEC, Sanyo, Microsoft, RCA e Intel.O Blu-ray, por sua vez, tem apoio da Sony e de estúdios como Columbia, MGM, Disney e 20th Century Fox.

Enquanto a queda-de-braço persiste, o consumidor tem a difícil tarefa de, na hora de comprar um aparelho de vídeo de alta definição, optar por um dos formatos sem saber qual deles sobreviverá.

Uma saída é adquirir um aparelho capaz de reproduzir ambos os formatos, solução que já vem sendo apresentada pela LG e pela Hitachi.

Para apreciar os formatos, é preciso dispor de uma TV de alta definição.

Piratas de DVDs da Malásia querem cães farejadores mortos


KUALA LUMPUR (Reuters) - Piratas de DVDs na Malásia definiram um prêmio pelas cabeças de dois cães farejadores que desbarataram uma quadrilha e ajudaram autoridades a confiscar cerca de 3 milhões de dólares em discos falsificados, afirmou a polícia na quinta-feira.

Lucky e Flo, duas fêmeas de labrador usadas por autoridades malaias no combate à pirataria de DVDs e CDs, conseguiram seu primeiro sucesso importante no Estado de Johor, na terça-feira.

O New Straits Times publicou que líderes das quadrilhas ofereceram uma recompensa não especificada pela morte dos dois cães.

"Como resultado das grandes perdas sofridas pelos bandidos, temos a informação do Ministério de Comércio Interno de que os criminosos de Johor pretendem matar Lucky e Flo", disse Neil Gane, representante da Associação Cinematográfica da América.

"As autoridades malaias estão levando essa ameaça a sério e a segurança ao redor de onde estão os animais foi reforçada", acrescentou Gane à Reuters.

Na operação de terça-feira, os dois cães ajudaram no confisco de um milhão de discos com jogos e filmes pirateados na cidade de Johor Baru, vizinha de Cingapura. Pelo menos seis pessoas foram presas.

DVDs pirateados, máquinas replicadoras e outras ferramentas usadas para se produzir e vender os discos estavam escondidas em espaços selados e compartimentos secretos espalhados por quatro andares de um prédio de escritórios.

A Malásia, que está na lista dos Estados Unidos de observação de países com altos índices de pirataria, aumentou acentuadamente os esforços para combater a falsificação num momento em que negocia um acordo de livre comércio com o governo norte-americano.

Os cães fazem parte de um teste de um mês que as autoridades malaias promovem em conjunto com a Associação Cinematográfica da América, entidade que reúne os seis principais estúdios de Hollywood.

Os animais foram treinados para sentar quando farejam um tipo de plástico usado na confecção de discos ópticos como CDs e DVDS. Até agora, os cães têm sido usados em checagem de contêineres em terminais de carga.

Sete formas de manter secretos sua pesquisa na internet e você mesmo





Como se certificar de que nenhuma empresa construa seu perfil a partir de suas pesquisas ou de seus hábitos de navegação

A maior ameaça para a sua privacidade pode não vir dos cookies, spywares ou rastreamentos dos web sites ou ainda da análise dos seus hábitos de navegação. Ao contrário, isso pode vir de engenharias de busca que coletam, gravam e armazenam suas buscas na internet.

Ferramentas de engenharia rastreiam seus termos de busca, descobrem os sites que você visita como resultado de suas pesquisas, o tempo que você gasta nas suas pesquisas e seu endereço IP. Com tudo isso, é possível descobrir quem você é, o que gosta e não gosta e também o que você faz enquanto está online.

Pesquisas arquivadas podem ser intimadas pelo governo federal e usadas em qualquer situação que o governo deseje. Tais arquivos também podem inadvertidamente ser divulgados ao público, para que todos vejam. Por exemplo, em agosto de 2006, a AOL acidentalmente publicou relatórios de buscas de 650 mil usuários, informações que rapidamente se espalharam pela internet.

Isso significa que você deve abrir mão da sua privacidade toda vez que usar um sistema de busca? Não, se você for esperto. Siga essas sete dicas para manter a sua privacidade, independente do sistema de busca que utilizar.

1. Não se cadastre

Se você se cadastra em uma das ferramentas de busca, você torna fácil para as companhias que administram esse serviço construir um perfil detalhado sobre você, porque eles conseguem identificar você nas suas buscas. Você pode pensar que nunca faz algum tipo de cadastro nesses sites, mas existe uma boa chance que você tenha feito, possivelmente sem saber disso.

Já foi o tempo em que as ferramentas de busca eram simplesmente ferramentas de busca. Hoje em dia, elas são ecossistemas inteiros de sites e serviços. O Google, por exemplo, oferece dezenas de serviços, incluindo o correio eletrônico gratuito Gmail, software de serviços online, recursos de blog e outros. Para a maioria deles, você precisa se logar se quiser usá-los.

Para fins de privacidade, nunca faça pesquisas enquanto estiver logado em qualquer serviço de busca, como o e-mail. Desta forma, se você estiver logado no Gmail, não pesquise na internet.

Uma alternativa é usar o navegador Firefox para serviços como Gmail e outros, como o Internet Explorer, para fazer pesquisas no Google. Dessa forma, vai ser muito mais difícil para as ferramentas de busca correlacionar sua identidade com suas pesquisas. Para segurança máxima, use um serviço “de anonimização” ou um software como o Tor para o browser que você usa para fazer buscas.

Se você não gosta desta idéia de usar dois browsers, instale diferentes perfis no navegador – um para uso de e-mail e outro para serviços de pesquisa e ainda um diferente para as buscas que você faz atualmente. Mais uma vez, isso vai tornar mais difícil para as ferramentas de busca correlacionar a pesquisa e a sua identidade.

O Firefox permite que você crie perfis separados, mas o Internet Explorer não. No Firefox, use o gerenciamento de perfil para criar perfis distintos. Para isso, abra o comando prompt e navegue até o diretório onde o Firefox está instalado (dependendo da versão, pode ser no C:\Program Files\Mozilla Firefox). Digite firefox.exe – ProfileManager e pressione Enter. O Profile Manager, como mostra a figura abaixo, aparece. Clique em Create Profile e siga as instruções para criar seu perfil. Crie quantos perfis você quiser e varie o uso para as buscas, veja a página de ajuda do Firefox “Como gerenciar perfis”.

2. Mantenha-se seguro contra o Google

Se você é como a maioria das pessoas, você faz todas - ou a maioria - das suas buscas usando uma única ferramenta: o Google. Isso significa que você está particularmente vulnerável, porque o Google terá um registro de todas as suas pesquisas. Mesmo se você não se cadastra no Google, ele pode rastrear suas buscas porque usa cookies para acompanhá-lo sessão por sessão.

Você pode, é claro, deletar todos os seus cookies antes de visitar o Google. Mas isso é problemático porque eles podem ser bastante úteis. Eles podem, por exemplo, logar você em alguns sites automaticamente ou salvar suas preferências pela forma como você usa os sites.

Uma solução simples é bloquear somente o Google nos cookies em seu PC. A forma de fazer isso varia de um browser a outro. No Internet Explorer, por exemplo, escolha Ferramentas>Opções da Internet, clique em Privacidade e depois no botão Sites. Na janela “Adress of Web site”, digite www.google.com e depois em bloquear.

De agora em diante, quando você visitar o Google, ele não terá permissão para colocar um cookie no seu disco rígido e não será capaz de rastrear suas pesquisas.

No Firefox 2, selecione Ferramentas>Opções, selecione o botão Privacidade e clique em Exceções. Depois digite www.google.com no “Endereço de web site” e clique em bloquear. Se você usa outra ferramenta de busca, coloque o endereço dela também.

Perceba que, porque o Google não colocará mais cookies no seu disco rígido, você pode não ser mais capaz de usar vários serviços do Google, como o Gmail. Se você é um usuário Firefox, você pode também usar o CustomizeFirefox extension que entre outras coisas, “torna-o anônimo” quando você usar o Google.

O Google tem numerosos serviços que você pode assinar, incluindo os serviços RSS, chamado de Google Reader e Google Groups, que permite a você ler grupos de notícias e outras comunidades de debates. Quanto mais serviços como este que você assinar, mais o Google saberá sobre você.

Além das suas pesquisas, ele sabe que blogs e grupos de notícias você lê e participa, por exemplo, o que facilita para a gigante criar um perfil fidedigno sobre você.

3. Mude regularmente seu endereço IP

As ferramentas de busca podem correlacionar todas as buscas por meio de um rastreamento do endereço de IP que você está usando e depois o utiliza para linkar todas as buscas que você realiza naqueles sites.

Existe uma forma simples de burlar isso: mude regularmente seu endereço de IP. Operadoras de banda larga determinam a você um endereço de IP para usar a internet. Estes endereços IP dinâmicos tipicamente ficam designados para o seu PC por um longo período. Para obter um novo endereço, desligue o seu modem, mantenha-o assim por alguns minutos e depois ligue novamente. Isso limpa seu antigo endereço IP e atribui a você um novo.

Se você é uma daquelas poucas pessoas que possuem endereço IP estático – por exemplo, no trabalho – você não poderá usar esta técnica. Ao invés disso, você vai ter que navegar anonimamente com software como o Tor.

4. Use ixquick

Esta é a maneira mais fácil de se certificar de que a informação sobre as suas buscas e pesquisas não serão usadas para construir um perfil sobre você: use uma ferramenta de busca que não arquiva o histórico de suas pesquisas. Isso é exatamente o que o ixquick promete. Ele diz que deleta todas as informações sobre suas pesquisas dentro de 48 horas, então a informação simplesmente não está disponível para qualquer um usar. Se o governo intimar os dados, não há nada para eles obterem.

5. Não inclua informações pessoais em suas pesquisas

Nós sempre “Googamos” nós mesmos algumas vezes, somente para ver o que está circulando na web sobre nós. Mas todas as vezes que você usa uma informação pessoal em buscas, como seu próprio nome, endereço ou outros dados relacionados, você torna mais fácil para a ferramenta saber quem você é e depois correlacionar com as buscas.

Pior, isso pode fazer com que abram brechas se você estiver procurando por informações como o seu número de identidade e alguém acessar as gravações de suas pesquisas.

6. Faça pesquisas críticas em um ponto público de hot spot

Se você precisa de qualquer jeito fazer uma pesquisa com informações pessoais ou uma pesquisa que é sensível por alguma razão, não faça isso em casa ou no trabalho. Ao contrário, vá até um ponto público de hot spot para fazer a pesquisa a partir de lá. Certifique-se de que está usando um hot spot que não exige que você se autentique, ou então sua privacidade estará comprometida.

7. Evite usar o serviço de busca do seu provedor de internet

O seu provedor de serviços sabe o seu endereço de IP, o que significa que ele pode seguir todos os web sites que você visita. Isso é suficientemente ruim para a privacidade, mas, se além disso você também usa a ferramenta de busca, o seu provedor passa a ser capaz de correlacionar seu endereço de IP com as pesquisas e construir um perfil ainda mais detalhado sobre você.

*Preston Gralla é repórter do Computerworld, em Framigham

IBM cria técnica de aplicação de cola que permite resfriar chips


Cientistas do Laboratório de Pesquisas da IBM criaram uma técnica que ajuda a dissipar o calor com três vezes mais eficiência

Cientistas do Laboratório de Pesquisas da IBM em Zurich criaram uma técnica de aplicação de cola usada para montar chips que vai permitir o melhor resfriamento dos componentes, disse a empresa.

As colas são usadas para unir pacotes de semicondutores, como processadores e chipsets, com elementos de resfriamento que dispersam o calor gerado pelos chips de hoje, cada vez mais potentes.

No entanto, as colas atuais, que são injetadas com partículas microscópicas de metal e cerâmica, ajudam a transferir esse calor e continuam a ser uma barreira à dissipação eficiente de calor.

Os cientistas da IBM descobriram que o problema está na forma como a cola é aplicada. Eles observaram que quando um chip era colado ao elemento de resfriamento de um pacote de semicondutor, uma cruz se formava na cola à medida que as partículas microscópicas contidas nela se empilhavam.

Isso impedia que a cola se espalhasse uniformemente. Eles superaram esse problema criando pequenos canais na base do componente de dispersão de calor, ajudam a cola a se espalhar melhor.

O resultado é uma camada mais fina de cola que a ajuda a dispersar o calor com três vezes mais eficiência, disse a IBM.

A companhia está trabalhando para incorporar esses canais em componentes usados nos chips, mas não disse quando pretende massificar a nova técnica de aplicação de cola.

*Sumner Lemon é editor do IDG News Service, em Cingapura.

Blog elege Associação da Indústria Fonográfica pior companhia dos EUA






Rejeição à indústria fonográfica - e suas políticas de combate ao download ilegal de músicas - aparece em pesquisa de blog

A Associação da Indústria Fonográfica da América (RIAA, do inglês Recording Industry Association of América) foi eleita a pior empresa dos Estados Unidos, de acordo com uma pesquisa do blog norte-americano The Consumerist.

A enquete foi feita em 15 etapas e a cada uma delas as 32 “concorrentes” duelavam e pares, saindo um vencedor de cada dupla. Na grande final, a RIAA ganhou da construtora Halliburton por uma margem de mais de mil votos, sendo indicada como a pior por mais de 8 mil pessoas.

A RIAA recebeu o título com 53,8% dos votos, contra 46,2% da oponente. Ao todo, a pesquisa recebeu mais de 101 mil votos. As chaves de disputa dos piores traziam ainda nomes como Sony, Wallmart, News Corp., AT&T e Verizon.

Para o blog, a mensagem dos leitores foi clara: “A internet se importa muito com a possibilidade de baixar músicas ilegalmente”.

Monitor USB da Samsung dispensa placa de vídeo




SyncMaster 940UX: o monitor entra na disputa pelas portas USB 2.0 do PC

As portas USB 2.0 do PC estão se abrindo para mais um equipamento: o monitor. A Samsung anunciou que começa a vender em maio (lá fora, é claro) a linha de monitores de LCD UbiSync. O primeiro modelo a dispensar as conexões D-Sub e DVI para se comunicar com o micro é o SyncMaster 940UX, de 19 polegadas, exibido na CeBit.

Segundo a Samsung, depois de plugado em um porta USB 2.0, o display é reconhecido pelo Windows como um drive externo. Nele está armazenado o programa de instalação de uma placa de vídeo virtual que pemite a transmissão das imagens pela porta USB.

Com a tecnologia UbiSync será possível ligar facilmente até seis monitores em um único micro ou notebook. Mas não em um computador qualquer. A Samsung já adiantou que o monitor USB exige uma boa carga de recursos da CPU. Para trabalhar com várias telas, a empresa recomenda uma máquina com processador dual core e pelo menos 2 GHz de clock. Sem contar o hub USB, que será indispensável para continuar usando impressora, mouse, teclado, câmera, HD externo, MP3 player...

Cebit mostra TV do futuro, com jeitão e recursos da Internet e em 3D








TV 2.0 combina elementos da Web e recepção de sinal via Internet rápida


Esqueça as telas de LCD ou de plasma. A TV do futuro promete muito mais do que uma imagem de cinema em sua casa, com alta definição e som estéreo de sei lá quantos canais. Comece a pensar em uma televisão que chegue à sua sala pelo cabo de Internet, exiba links relacionados ao programa que você está vendo e transforme até mesmo parte das imagens em links para que você possa, por exemplo, comprar a camisa de seu time de futebol favorito ou o vestido daquela atriz. Mais —imagine que a TV lhe ofereça isso automaticamente, só de perceber que você ficou olhando por mais de cinco segundos para o mesmo lugar da tela.
Estes são alguns dos conceitos de TV do futuro em exibição na Cebit 2007, maior feira de tecnologia do mundo, que vai até a próxima quarta-feira (21/03) em Hannover, Alemanha. Enquanto as fabricantes de eletroeletrônicos disputam para ver quem consegue produzir uma TV maior, o Parque do Futuro e estandes como o da Microsoft e do Instituto Fraunhofer mostraram tecnologias que devem mudar a forma como assistimos televisão nos próximos anos.

A TV via Internet, ou IPTV, é uma das maiores apostas. Segundo estudo do instituto Gartner, até 2010 cerca de 48 milhões de casas em todo o mundo receberão sinais de TV pela Web. De olho neste mercado, a Microsoft, por exemplo, trouxe à feira uma plataforma chamada IPTV Edition, software que roda em decodificadores digitais, como as "caixinhas" de TV a cabo do Brasil, só que conectados à Internet via cabos de rede. É possível navegar por menus com a grade de programação e selecionar, por exemplo, se quer gravar um determinado programa ou todos os programas daquela série, semanalmente. O software também integra conteúdos do PC e do telefone —dá para ver fotos, ouvir músicas e até ler e-mails e mensagens SMS na tela da TV.

TV 2.0 empresta conceitos da Web
Mas todos esses recursos ganham vida com um conceito exibido no Parque do Futuro, pavilhão da Cebit recheado de idéias de universidades e institutos de pesquisa do mundo inteiro. A Universidade de Ciências Aplicadas de Berlim, por exemplo, trouxe à feira o projeto TV 2.0 —que empresta conceitos da Web para tentar explorar melhor o fato de o sinal da TV chegar à sua casa pela Internet.

O professor Hagen Kaprykowsky, do departamento de Mídia Interativa da universidade, explica que o sistema consegue agregar informações às imagens digitais, como links relacionados ou que tornem clicáveis as próprias imagens —em uma demonstração, um vídeo exibido pela TV 2.0 mostrava um círculo piscando ao redor dos óculos de sol usados por um atleta durante uma competição. Seria possível então clicar nos óculos com o controle remoto e ser levado a uma loja virtual para comparar preços e comprar um modelo. "O projeto é ainda um piloto, mas acreditamos que a TV pode aprender bastante com a Web", diz Kaprykowsky.

O próprio controle remoto é algo que deve virar coisa do passado em breve. No estande do Instituto Fraunhofer, a exemplo do que já foi exibido na IFA 2006, LCDs com câmeras digitais embutidas conseguem detectar o movimento de suas mãos e permitem apontar e clicar em diferentes regiões da página simplesmente apontando os dedos em direção à tela.

Bem-te-vi
E por falar em telas inteligentes, outra tecnologia que deve mudar nossa relação com a TV e o próprio monitor do PC é o detector de olhar. O estande da Tobii, também no Parque do Futuro, mostrou dois modelos de monitores LCD com câmeras digitais que conseguem saber por onde seus olhos passaram —e permaneceram—na tela. Vai ficar mais fácil descobrir o que realmente mais chamou a atenção de sua namorada ou namorado naquele filme...

"Também será possível descobrir que produto chamou mais atenção de um espectador em um filme ou comercial, e direcionar melhor a publicidade e o comércio eletrônico", segundo um representante da Tobii. O monitor consegue detectar até mesmo as piscadas de olho, que podem, no caso do PC ou da TV 2.0, servir como clique.