sábado, 30 de janeiro de 2010

GCC aprova suporte oficial à linguagem Go, do Google

Depois de um tempinho sem notícias significantes sobre a linguagem de programação Go, criada pelo pessoal do Google, ela reaparece nas manchetes:
o projeto GCC (GNU Compiler Collection) anunciou a aceitação do frontend da linguagem Go, o gccgo.

Dependendo do desenvolvimento e estudos dos mantenedores o frontend será incluso já no GCC 4.5, podendo ser aplicado depois se não der para ser tão rápido.

A Go tem várias semelhanças com C e C++, ainda não é amplamente conhecida mas tem o Google por trás, o que dá indiretamente uma posição privilegiada chamando a atenção para a linguagem.

Referências: LWN e BR-Linux


Fonte: GuiadoHardware.net




Avise se algum erro for encontrado nesse artigo.




O conteúdo desse artigo pode ser modificado ou atualizado, por isso, visite essa página constantemente e mantenha-se atualizado.

segunda-feira, 25 de janeiro de 2010

The Big Bang Theory: Linux no computador do Sheldon

O link abaixo leva à versão legendada em português do momento do seriado The Big Bang Theory em que Sheldon fala sobre a partição Linux para a qual não há espaço em seu computador. Talvez o lendário “ano do Linux no desktop” vá ser quando o Linux estiver presente no computador da Penny, e não no do Sheldon ;-)



Enviado por Elder Marco (eldermarcoΘgmail·com):

“Depois do Leonard ter aparecido com uma camisa do Konqueror no seriado americano The Big Bang Theory, foi a vez da personagem Sheldon citar o Linux em um episódio que foi ao ar no dia 11/01/2010. Nele, a personagem diz não ter espaço para uma partição Linux no seu HD e por isso precisa fazer um backup antes de instalar os seus sistemas operacionais.

A interpretação ficou ambígua, mas pela colocação anterior da personagem, creio se tratar do próprio Linux. Fico feliz em saber que Linux tem sido citado em seriados de TV. Qual será a próxima?” [referência: img11.imageshack.us]



Fonte: BR-Linux.org

quinta-feira, 7 de janeiro de 2010

Google Voice suportará chamadas VoIP em 2010

O Google Voice é um serviço que pretende ser como o Skype. No momento o Skype segue sendo o rei absoluto, e para se ter uma idéia, enquanto o serviço do Google possui 1,4 milhões de utilizadores, seu principal concorrente e alvo já está com 500 milhões.






Mas parece que este ano as coisas começarão a mudar, ou pelo menos é isso que a equipe do Google Voice tentará fazer. Esta foi a principal razão que explica porque o Google adquiriu no ano passado, a Gizmo5, empresa que irá fornecer a capacidade de aproveitar 100% da estrutura da grande rede (como o Skype).

Bradley Horowitz, que é vice-presidente de gerenciamento de produto do Google, revelou alguns detalhes sobre o que eles pretendem fazer com o serviço neste ano, e apesar de não revelar muito, ele compartilhou algumas características que, sem dúvida, deverão mudar a maneira pela qual atualmente o serviço é utilizado.

“Gizmo5 nos proporciona uma tecnologia cheia de talento. Eles têm habilidades específicas em tecnologia e integração de telefonia com outros dispositivos e informática baseados na grande rede. Queremos garantir que esta comunicação estará disponível para você, independente de onde você esteja, e de qual dispositivo tenha no seu bolso, etc.”

Como se pôde conferir no texto, realmente não foram revelados muitos detalhes, mas agora sabemos que pretendem nos dar a capacidade de comunicação em qualquer lugar, a qualquer momento e a partir de dispositivos móveis.

Fonte: Alt1040 - Bitelia


Fonte: Fórum PCs


O Google comprou a empresa de VoIP, Gizmo5, no mês de Novembro de 2009, isso foi feito visando melhorias no Google Voice, agora ele deverá ser aprimorado pelo o Google. Agora o Google Voice deverá passar o Skype na área de VoIP. Eu torço que isso aconteça, pois o Skype é muito usado, mais o seu foco é mais no Windows, com um concorrente como o Google, nos poderemos ter um serviço VoIP forte e alternativo ao Skype, eu espero que o Google Voice seja mais abrangente e multiplataforma.

Microsoft entra para o grupo que desenvolve o SVG

A Microsoft entrou para o grupo do SVG, Scalable Vector Graphics (SVG) Working Group, parte do World Wide Web Consortium (W3C). A estratégia faz parte dos planos dela de tornar o Internet Explorer mais "compatível" com os padrões da web. O Firefox, Safari, Opera e Chrome suportam renderização de SVG há um bom tempo.

A notícia foi postada no blog de desenvolvedores do IE. Não ficou claro quando o IE terá suporte ao formato, mas imagina-se que seja na versão 9. Ela usará recursos do Direct2D para renderizar as páginas, aproveitando parte do desempenho extra oferecido pela GPU.

O SVG é importante para a web pois permite desenhar imagens vetoriais, que são renderizadas sem perda de qualidade, assumindo as dimensões do cliente. Seja num netbook ou smartphone com tela minúscula ou no grande espaço oferecido por dois monitores de 30 polegadas combinados, a aparência e qualidade não são afetadas. Já os formatos tradicionais, como JPEG e GIF, não passam de adaptações comprimidas do bitmap, onde a cada pixel da imagem é representado de forma única, e ao redimensioná-la, é necessário "descobrir" quais pixels deveriam estar nos locais intermediários, gerando uma imagem sem definição e/ou cheia de "quadriculados".

Veja o anúncio:

http://blogs.msdn.com/ie/archive/2010/01/05/microsoft-joins-w3c-svg-working-group.aspx

Via CNet


Fonte: Guia do Hardware.net

Pi foi calculado com 2.7 trilhões de dígitos, num Computador Comum

Fabrice Bellard, cientista e programador da França, recalculou o número pi com 2,7 trilhões de dígitos (a famosa constante matemática, razão irracional do comprimento de uma circunferência pelo seu diâmetro).

A façanha impressiona pois foi usado um computador comum em 131 dias, enquanto os "concorrentes" do desafio acabam usando supercomputadores. O recorde anterior de 2,5 trilhões foi alcançado em 73 horas e meia no ano passado, na Universidade de Tsubaka, Japão, usando um supercomputador.

Bellard fez a operação usando um software próprio rodando no Fedora 10 de 64-bit, num Core i7 a 2,93 GHz, 6 GB de RAM e um total de 7,5 TB de espaço em disco. Segundo a divulgação dele, só para guardar o resultado na base 10 são necessários 1137 GB. Alguns poucos números foram publicados no site dele:

http://bellard.org/pi/pi2700e9/pidigits.html

Veja mais em:

http://bellard.org/pi/pi2700e9/

Para quem se interessar, há um PDF com notas técnicas comentando como foi feito o cálculo.

Via TG Daily


Fonte: Guia do Hardware.net

Nexus One, o celular do Google, finalmente é lançado nos EUA

Enfim, oficial: o Google Phone foi lançado. O site do Nexus One (nome oficial) não poderia ser mais simples:

http://www.google.com/phone





Clique na imagem para ampliar.


Ele foi lançado nos EUA, durante uma conferência sobre o Android promovida pelo próprio Google. Lá pode ser comprado desbloqueado por $529 (bem salgado mesmo), ou por $179 com um contrato de 2 anos da operadora T-Mobile. Será expanido para outros locais do mundo aos poucos, em breve estará disponível pela Verizon (também USA) e Vodaphone na Europa, isso na primavera do hemisfério norte, ou seja, a partir de março.

As especificações são mesmo as que "vazaram" pela imprensa, destacando um processador Qualcomm QSD 8250 de 1 GHz, 512 MB de RAM e 512 MB de ROM (hardware bastante decente para um smartphone); é produzido pela HTC, famosa parceira do Google no que diz respeito ao Android. Entre outras coisas:


  • Tela de toque AMOLED de 3,7", usando resolução 800x480.

  • Câmera de 5 megapixels, com captura de vídeo a 720x480 a 20 FPS.

  • Conectividade via UMTS 1/4/8, HSDPA 7,2 Mbps, HSUPA 2 Mbps, GSM/EDGE quadriband, Wi-Fi, Bluetooth stereo.

  • Android 2.1 (Eclair).


Segundo as especificações divulgadas no site oficial, ele segura até 10 horas de conversasão em rede 2G e 7h em 3G; até 290 horas em standby em rede 2G e 250 em 3G; até 5 horas de uso de internet em 3G e 6h30min via Wi-Fi; até 7 horas de reprodução de vídeo e 20h de reprodução de música.

Há um tour em 3D, com mais detalhes:

http://www.google.com/googlephone/tour/

A Apple e Microsoft que se cuidem.

A questão que fica por aqui é: quando chegará ao Brasil? Não se sabe.


Fonte: Guia do Hardware.net

Nokia de novo: produtos da Apple infringem mais 7 patentes

A Nokia está realmente decidida a enfrentar a Apple em processos judiciais. A finlandesa está acusando a estadunidense de fabricar dispositivos usando todo o ecossistema de seus dispositivos baseado em propriedade intelectual da Nokia. Indiretamente, isso atinge todos os smartphones, tocadores de música portáteis e computadores da Apple.

A acusação foi registrada na Comissão Internacional do Comércio, nos EUA, e inclui sete patentes, que englobam tecnologias de câmeras, recursos de interfaces, antenas e gerenciamento de energia. A Nokia afirma que tais patentes são as chaves para o sucesso, pois permitem uma "melhor experiência do usuário, menores custos de fabricação, menor tamanho e maior autonomia da bateria" nos aparelhos da Nokia.

O gerente geral de licenciamento de patentes da Nokia, Paul Melin, disse que a empresa fez a acusação porque a Apple está desenvolvendo seus gadgets "nas costas de outras pessoas": "A Nokia é a maior desenvolvedora de diversas tecnologias para dispositivos eletrônicos de pequeno porte. Esta ação visa a proteger os resultados desse desenvolvimento pioneiro. Embora nosso litígio no [estado norte-americano de] Delaware tenha como foco a tentativa da Apple de pegar carona nos investimentos da Nokia em padrões wireless, o caso que deu entrada hoje na ITC [Comissão Internacional do Comércio] trata da prática da Apple de construir seus negócios com base na inovação proprietária da Nokia."

Anúncio oficial:

nokia.com

Fonte:

geek.com


Fonte: Guia do Hardware.net

Fundador do MySQL tenta impedir compra da Sun pela Oracle

O fundador do MySQL, Monty Widenius, anda agindo de forma estranha tentando impedir que a Oracle compre a Sun. Basicamente ele fundou o MySQL (open source, com muito código da comunidade aberta conforme foi ficando popular), e vendeu para a Sun em 2008. Agora está com medo que a Oracle descontinue o produto, já que ataca em parte os seus sistemas comerciais - mesmo sabendo que os bancos de dados da Oracle são de larga escala, tendo um público alvo diferente do MySQL.

Para a Comissão Européia a Oracle se comprometeu a manter o sistema licenciado pela GPL, documentado e sem contrato de suporte obrigatório, por pelo menos 5 anos. A GPL seria suficiente para manter o projeto "livre".

A licença do código já lançado não pode ser mudada. O problema na venda é que o sistema poderia acabar aos poucos, parando de evoluir. Com dinheiro (da Oracle) a comunidade pode não ter forças para continuar trabalhando no software como deve, de forma que sem desenvolvedores centrais que façam uma parte considerável do trabalho, o MySQL ficaria cada vez mais antigo até chegar ao ponto de não ser utilizável no futuro. Não adianta ser de código aberto se ninguém (com alto conhecimento e dedicação) colabora.

Widenius chega a citar até sobre a possibilidade de a Oracle comprar o PostgreSQL, atacando desenvolvedores essenciais sem os quais o projeto morreria por falta de cabeças. E assim, adeus os maiores bancos de dados livres.

No blog dele há mais detalhes sobre os incentivos à campanha mundial, com objetivo de conseguir assinaturas o suficiente para fazer a Comissão Européia (EC, European Commission) desistir de aprovar a venda da Sun. O site helpmysql.org (disponível em vários idiomas) tenta centralizar a manifestação contra:

http://helpmysql.org/pt/theissue/customerspaythebill

Um trecho em português do site da campanha:

Em Abril de 2009, a Oracle anunciou que tinha acordado comprar a Sun. Como a Sun tinha comprado a MySQL no ano passado, isto significaria que a Oracle, o líder do mercado de bases de dados proprietárias, passaria a ser dona do MySQL, o mais popular software livre de base de dados.

Se a Oracle comprasse a MySQL nessa base, teria tanto controlo sobre o MySQL quanto o dinheiro consiga comprar um projecto de software livre. De facto, na maioria dos projectos de software livre (tal como o Linux ou o Apache) não existe nenhuma forma de um concorrente comprar sequer um décimo do mesmo poder de influência. Mas o sucesso do MySQL sempre dependeu da companhia que a desenvolvia, vendia e promovia. Essa companhia (inicialmente a MySQL AB, depois a Sun) sempre possuiu os mais importantes direitos intelectuais, sobretudo marcas registadas e direitos de autor e (até hoje apenas para fins defensivos) patentes. Utilizou estes direitos para gerar lucro e reinvestiu uma grande parte desses ganhos no desenvolvimento, não só crescendo mas também melhorando com o tempo.

Se esses direitos caíssem nas mãos do principal concorrente da MySQL, então o MySQL imediatamente deixaria de ser uma alternativa aos caros produtos da Oracle. Até agora, os clientes tinham a escolha de utilizar o MySQL em projectos novos em vez dos produtos da Oracle. Algumas grandes companhias até migraram (trocaram) da Oracle para o MySQL para soluções existentes. E qualquer um poderia ameaçar credivelmente os vendedores da Oracle com o passar a utilizar o MySQL a menos que fosse concedido um grande desconto. Se a Oracle for dona da MySQL, então simplesmente rir-se-á dos clientes que tentarem isto. Para a Oracle, livrar-se deste problema facilmente vale mil milhões de dólares por ano, se não mais.


Para vender para a Sun os produtores não pensaram nisso (e são criticados agora), se bem que o peso na consciência era menor, já que a Sun não tinha a participação em bancos de dados que a Oracle tem.

Caso interesse, leia a longa postagem dele sobre o tema:

http://monty-says.blogspot.com/2009/12/oracle-gives-only-empty-promises-for.html

A venda para a Oracle realmente preocupa a maioria dos fãs de software livre. O ruim é que um dos principais criadores do MySQL está reclamando de algo que ele mesmo fez no passado, já que quando concordou em vender a MySQL AB para a Sun parece que não pensou nessas possibilidades. Ele é duramente criticado agora por muita gente. Alguns ainda colocam em pauta a questão: porque ele não cria um fork do MySQL então, passando a desenvolver o sistema com base no estado em que ele se encontra, sem ligações com a Sun e/ou Oracle? É open source, isso seria possível e é uma boa hora para quem quer impedir a compra pela Oracle.

De que lado você fica? Acha que a Oracle irá abandonar o MySQL, já que prejudica em parte as vendas das suas licenças, ou isso não faria diferença e o MySQL continuaria sendo bem mantido?

Via BR-Linux


Fonte: Guia do Hardware.net


Enquanto essa situação não é resolvida, agora é capaz de muitos estarem migrando os seus bancos de dados para o PostgreSQL ou para alguma outra opção alternativa. Eu espero que isso se resolva logo, pois o MySQL não pode acabar assim.

terça-feira, 5 de janeiro de 2010

Os fatos mais importantes da década em apenas um gráfico

O The New York Times publicou um gráfico interessante que resume toda a década que se encerrou em 31 de dezembro de 2009 através de uma simples tabela. A imagem foi criada por Phillip Niemeyer, diretor de arte no estúdio de design Double Tripe.



Clique na imagem para ampliar.



Entre os destaques na área de tecnologia temos os celulares com câmeras em 2004 e os jogos MMORPGS (Massive Multiplayer Online Role-Playing Game) em 2005, ambos na aba cultura. E temos ainda a Apple figurando na coluna 2006 e na aba Logo.

O desenho foi bem trabalhado e algumas informações realmente condizem com os fatos globais, outros refletem apenas um olhar do que mais marcou o povo norte-americano.

Fonte: Alt1040 - NyTimes


Fonte: Fórum PCs

segunda-feira, 4 de janeiro de 2010

História da logo do Google



Ola! Hoje mesmo, eu estava dando uma olhada para ver se eu achava a história da logotipo do google, depois de ter pesquisado eu achei algumas coisas interessantes!;)

A artista do famoso logo do google é a Ruth Kedar, uma designer gráfico brasileira, que mostra suas intenções que levaram a desenhar com cores primárias. A fonte utilizada na logotipo é Catull.

Kedar é uma amiga mútua dos co-fundadores do Google( Larry Page e Sergey Brin ), há nove anos, quando se conheceram na Universidade de Stanford, onde la era uma professora.

Ruth também utilizava um grande processo de símbolos, sendo assim, ela utilizou um mero jogo de lupas, transgredindo culturas."Ao tirar a lupa, Kedar notou que o logotipo poderia significar que o Google poderia ser muito mais do que apenas um mecanismo de pesquisa"


Ruth Kedar explica que escolheu a fonte Catull porque possui elementos de escrita e instrumentos tradicionais, dando também um toque moderno. Os laços históricos da fonte Catull, pareceu muito apropriada, fazendo uma ponte entre o velho e o novo.

Algumas idéias de Ruth, até chegar a logo atual:







Mas antes do Google aprovar uma logotipo profissional, Sergey Brin, criou uma logo utilizando o editor de imagem Gimp, e esse era a logo utilizada pelo Google. Essa logotipo possuia letras coloridas, com um ponto de exclamação no final, semelhante ao do Yahoo! Sergey Brin parecia muito orgulhoso com o novo logotipo, que era composto de letras em maiúsculas e cores primárias.

A logo não estava com a aparência do significado, mas ele estava satisfeito com o que acabou de criar usando o Gimp, que na minha opinião é um ótimo editor de imagens!;)


Resumido por mim. Post original:
http://googlediscovery.com/2008/02/13/descubra-a-historia-do-logotipo-do-google/

Logotipos do Google em datas especiais

Como você deve ter percebido, em datas especiais o Google muda o sua logo. A algum tempo eu ficava salvando as logotipos das datas especiais do Google em meu computador, porque eu sabia que eu poderia usar alguma hora.


Algumas logos:








Confira todas as logos nesse site que eu descobri:
Google Logos
http://www.google-logos.com/


Evolução da logo do Google

Em 1996 o Google era apenas um projeto na Universidade de Stanford. Ele se chamava Backrub.


Abaixo você confere algumas modificações entre 1996 e 1997 na logo do Google, e foi aí que o seu nome foi mudado para "Google"










Versão feita por Jesse Rios, no qual foi inspirado no efeito da sombra do logo atual



Logo atual:




E sua versão atual brasileira:






Fonte: gimpDesign blog

domingo, 3 de janeiro de 2010

Os primeiros 10 anos deste Século: Do Google AdWords ao Hulu

E já se passaram dez anos, e neste tempo muita coisa mudou! Estava analisando as mudanças ocorridas nos primeiros dez anos deste Século XXI e posso dizer que foram profundas. Revisitando a história escolhi alguns sites que merecem destaque. Parece que foi ontem, mas já se passaram dez anos. Por todo este mês uma série de matérias serão publicadas pelos nossos colunistas e redatores sobre o primeiro Decênio do Século XXI. Aqui vai a primeira delas sobre alguns sites que, de certa forma, acredito eu, que, neste período mudaram o mundo e a forma como nos relacionamos com ele e a tecnologia.


2000


Depois de vencermos o 'Bug do Milênio', começam os vários avanços em todas as áreas, mas queria me deter em alguns sites. Em 2000 nascia o Google AdWords - um serviço da Google que consiste em anúncios em forma de links encontrados, principalmente, nos sites de busca relacionados às palavras-chave que o internauta procura. A ferramenta é uma forma de adquirir publicidade segmentada, baseada no sistema de custo por clique (CPC), custo por impressões (CPM) ou de custo por ação (CPA) independentemente de qual seja o seu orçamento. Os anúncios do AdWords são exibidos juntamente com os resultados de pesquisa no Google.

O nome Google foi escolhido por conta da expressão googol, que representa o número 1 seguido de 100 zeros, para demonstrar assim a imensidão da Web. A curiosidade é como aconteceu a descoberta: a expressão googol surgiu quando o matemático Edward Kasner questionou o seu sobrinho de 8 anos sobre a forma como ele descreveria um número grande... bem grande! O maior número que ele imaginasse. O pequeno Milton Sirotta soltou a resposta que depois de traduzida virou algo parecido com "googol". Mais tarde, Kasner redefiniu para o googolplex.

O documentário do Biography Channel sobre os criadores do Google, mostra um acaso. Quando o primeiro investidor da empresa passou um cheque de 100 mil dólares perguntou em nome de quem deveria passar. Brin e Page disseram que seria "Googol" . O empresário escreveu como ouviu e saiu "Google", obrigando que a empresa tivesse este nome.

2001


Neste ano acontece um fato que confirma como as coisas podem mudar na web de uma hora para outra. Os donos da Google tentaram vender a empresa a Yahoo! (na época o dono da bola) e estes recusaram a oferta. Hoje a agonizante Yahoo! tenta manter-se viva tentando tudo para não ser vendida a Microsoft. Em 1 de fevereiro de 2008, a Microsoft tentou comprar a Yahoo! por 44,6 bilhões de dólares, porém a Yahoo! rejeitou oficialmente a oferta dizendo que subestimava o valor da empresa no mercado.



Em 15 de janeiro de 2001, nascia a Wikipedia – a maior enciclopédia do mundo com 14 milhões de verbetes – usando o conceito ‘wiki’. O conceito wiki é formado por uma rede de páginas web contendo as mais diversas informações, que podem ser modificadas e ampliadas por qualquer pessoa através da web. Mas um fator distingue a Wikipédia de todas as outras enciclopédias: qualquer internauta pode modificar qualquer artigo, e cada leitor é um potencial colaborador do projeto. A enciclopédia, sem fins lucrativos, é gerida e operada pela Wikimedia Foundation. Os números da Wikipedia impressionam: Disponível em 268 idiomas ou dialetos com mais de 14 milhões de artigos, dos quais mais de 3,0 milhões de artigos são referentes à versão em língua inglesa (atualização de 2 de janeiro de 2010) e 533. 891 artigos na versão em língua portuguesa. O número total de páginas beira os 54 milhões.



Ainda em 2001 nasce uma idéia que viria a se transformar no maior fórum de informática da America Latina. O Fórum PCs apareceu definitivamente como site em meados de 2002. Segundo Paulo Couto, fundador, “era uma época que eu recebia centenas de e-mails por semana sobre artigos que havia publicado em algumas revistas. Vários desses e-mails continham as mesmas perguntas, e não estava sendo produtivo respondê-las individualmente. A melhor saída era criar um fórum e responder as questões online, de forma que todos pudessem se beneficiar do mesmo texto. Aos poucos outros colaboradores foram surgindo e mais leitores foram usando essa ferramenta como fonte de conhecimento.” E deu certo. Paulo Couto trabalhou na IBM por 10 anos antes de decidir seguir no campo do empreendedorismo de sites de conteúdo e informação. Hoje o Fórum PCs possui cerca de quatro milhões de visitantes únicos e mais de 300 mil usuários cadastrados que representam os mais diversos segmentos de usuários de internet.

2003


Nasce o MySpace, a primeira rede social direcionada para o conteúdo musical. Em 14 de outubro de 2006 possuía 20 fóruns, 300.000 tópicos nos fóruns principais do site, 3 milhões de postagens nos fóruns, 200.000 grupos, 60 milhões de postagens nos fóruns dos grupos, 300.000 bandas/músicos no MySpace e mais de 202 milhões de perfis no MySpace ( 2007). Porém nesta mesma época começou seu declínio e, em 2008, perdeu lugar para o Facebook.

2004


Em 24 de janeiro de 2004 nasce o mais querido site de relacionamentos dos brasileiros – O Orkut. O Orkut é uma rede social filiada a Google, com o objetivo de ajudar seus membros a conhecer pessoas e manter relacionamentos. Seu nome é originado no projetista chefe, Orkut Büyükkokten, engenheiro turco do Google.

O alvo inicial do orkut era os Estados Unidos, mas a maioria dos usuários são brasileiros e indianos. No Brasil é a rede social preferida dos brasileiros, com mais de 23 milhões de usuários. Na Índia é o segundo site mais visitado. Expressões inusitadas começaram a aparecer entre os brasileiros por conta da ‘orkutimania’. Uma delas é ‘Cometer um orkuticídio’ que nada mais é do que excluir sua conta no sistema. O termo foi bastante usado pela imprensa brasileira. O orkut segue as tendências da web e agora incorporou ferramentas de promoção on line e um mini twitter.

O Orkut também foi o protagonista de uma batalha jurídica que ficou conhecida como a “Batalha de Orkut”. Até hoje não se tem explicação a respeito dos reais motivos que expliquem os procedimentos adotados pelo Google que geraram a ‘Batalha de Orkut’. Mas sabemos que a vitória da justiça e da sociedade brasileiras mostrou qual tipo de internet desejam os brasileiros e ela é exatamente a mesma que está descrita no pedido de desculpas emitido por comunicado da Google Brasil quando ela espera que o Orkut “continue sendo a comunidade segura, vibrante e valiosa atualmente desfrutada pela grande maioria de nossos usuários.” A batalha teve início em 2006 e só terminou em 2 de julho de 2008 quando a SaferNet, uma ONG baiana, obteve uma impressionante vitória ao lado dos procuradores da República Sérgio Suiama e Adriana Scordamaglia. Depois de anos de muitas lutas, os procuradores conseguiram algo que parecia impossível. Foi a primeira vez que um provedor multinacional de internet admitiu cumprir integralmente as leis e decisões judiciais fora do seu país sede. A gigante Google, representada aqui pela Google Brasil, teve que abrir os dados de usuários do Orkut para combater diversos tipos de crimes e isso ajudou a muitas polícias do mundo inteiro.

2005


Era para ser apenas um site para postar vídeos de férias e passeios e virou um fenômeno da internet que não para de crescer. O domínio "YouTube.com" foi registrado em 15 de fevereiro de 2005 e o site foi desenvolvido alguns meses depois. O YouTube foi fundado por Chad Hurley, Steve Chen e Jawed Karim, que eram empregados da PayPal. Antes de trabalhar na PayPal, Hurley estudou design na Indiana University of Pennsylvania, e Chen e Karim estudaram ciência da computação na University of Illinois at Urbana-Champaign. Em 9 de outubro de 2006, foi anunciado que a companhia seria comprada pela Google por 1,65 bilhão de dólares. A aquisição do YouTube foi fechada em 13 de Novembro, e foi na época a segunda maior aquisição do Google. O Youtube hospeda mais de seis milhões de vídeos, e cresce cerca de 20% ao mês. Os vídeos ocupam mais de 45 terabytes de armazenamento – capacidade de aproximadamente 5 mil computadores usados em casa. Se você decidir assistir a todos os vídeos precisará ser um imortal, pois o total de tempo que será gasto para assistir a todos os vídeos do Youtube, desde que iniciou as atividades, é de cerca de 10.000 anos! Hoje ele é o segundo mecanismo de busca mais acessado do mundo e inaugurou uma febre que consolidou a força do vídeo na web.

2006


Neste ano o Facebook abre a rede a secundaristas e transforma-se na maior rede aberta do mundo com 350 milhões de usuários. Mesmo tendo sido criado em 4 de fevereiro de 2004 o Facebook, fundado por Mark Zuckerberg, um ex-estudante de Harvard era restrita apenas aos estudantes do Harvard College. Em 27 de fevereiro de 2006, o Facebook passou a aceitar também estudantes secundaristas e algumas empresas. Um mês depois, em 28 de março, a revista BusinessWeek divulga que o Facebook estaria sendo negociado. O Facebook recusou uma oferta de $750 milhões, e estimou seu preço em $2 bilhões.

2007


Nasce o Twitter com a missão de substituir o SMS. Quem pensava que as pessoas não gostavam de aparecer e de dar satisfação das suas vidas é só ver o crescimento do Twitter - o SMS da internet registrou em novembro de 2008, cerca de quatro a cinco milhões de usuários. Em maio de 2009, um estudo analisou mais de 11 milhões e meio de contas de usuários e não pára de crescer. Em Fevereiro de 2009 o blog "Compete.com" colocou o Twitter em terceiro lugar como rede social mais usada depois do Facebook (primeiro lugar), seguido do MySpace(em segundo). Sites parecidos foram lançados mundo afora. Alguns oferecendo o serviço apenas para um país específico. De acordo com uma pesquisa realizada pela agência Bullet, a maioria (61%) dos usuários do Twitter no Brasil é composta por homens na faixa de 21 a 30 anos, solteiros, localizados nos estados São Paulo e Rio de Janeiro. São pessoas com ensino superior completo e renda mensal compreendida entre R$ 1001 e R$ 5000. Ainda segundo a pesquisa, esse público gasta cerca de 50h semanais conectados à Internet. Cerca de 60% são formadores de opinião.

2008


Termina a fase áurea do Second Life. Durante dois anos foi o ‘xodó’ da mídia mundial com inúmeras reportagens e destaques a respeito do tema ‘vida paralela na internet’. Realmente, além de discussões, muitos casamentos acabaram em divórcio e até crimes foram cometidos por pessoas que acreditavam estarem sendo ‘traídas’. Aos poucos as pessoas foram perdendo o interesse. Agora o Second Life encontra-se em processo de extinção.



Os chineses decidiram enfrentar os grandes buscadores com a Baidu, um buscador de músicas. A maior empresa de buscas via Internet da China, a Baidu.com detém cerca de 70% deste mercado na China e expandiu seus serviços em japonês para incluir buscas por blogs, com o intuito de aumentar ainda mais seus números na segunda maior economia do mundo. Cerca de 70 por cento dos internautas japoneses usam dois ou mais mecanismos de busca, e a Baidu tenciona inicialmente ser o segundo site consultado pelos usuários japoneses. Em outubro de 2009 o mecanismo de busca chinês Baidu saiu na frente do Google ao anunciar que seus serviços mais populares virão pré-instalados em todos os novos celulares da operadora local, a China Unicom.

2009


De olho nas irreversíveis tendências da web 2.0 as empresas Fox, NBC , ABC e mais recentemente a Disney uniram seus conteúdos em um único site – o Hulu.



Ainda em 2009 o grupo de mídia Naspers, da África, anunciou a compra de 91% do site brasileiro de comparações de preços BuscaPé, por US$ 342 milhões. O site foi fundado em 1999 pelos estudantes Romero Rodrigues, Rodrigo Borges, Ronaldo Takahashi e Mario Letelier. Começaram com 35 lojas cadastradas e até ser vendido registrava mais de 60 milhões de visitas por mês. O BuscaPé está presente em toda a América Latina e tinha a expectativa de encerrar 2009 com 600 mil lojas cadastradas. Foi o maior negócio de compra de site realizado até agora na web brasileira.

Enfim, como escrevi, muita coisa mudou desde o início deste Século. O que mais poderá vir por ai? Quais serão as novas tendências? O que querem os novos usuários pelos próximos 10 anos? Quem sabe o seu desejo não se transformará em uma nova ordem mundial? Como sempre, a palavra é sua.


Fonte: FórumPCs

Iniciantes: entendendo as placas de som

Embora os micros PCs existam desde 1981, as placas de som de tornaram comuns apenas a partir de 1996 a 1998, com a popularização dos "kits multimídia", que incluíam a placa de som, um drive de CD, caixas de som e microfone. Antes disso, a maioria dos PCs incluíam apenas o speaker da placa-mãe, que era usado como uma "placa de som de pobre" por muitos jogos, que tiravam leite de pedra, modulando a frequência e a duração dos bips de forma a produzir sons similares ao que você ouviria em um Atari.

A primeira família de placas de som a se tornar popular foi a Sound Blaster, da Creative. Elas rapidamente se tornaram um padrão para placas de som, levando ao aparecimento de inúmeras placas compatíveis.

A Sound Blaster 16, lançada em 1992, por exemplo já era capaz de reproduzir áudio com qualidade de CD (16 bits e 44.1 kHz). Ela ainda não oferece suporte a múltiplos fluxos de áudio ou ao uso de conjuntos de caixas de som 5.1 ou 7.1 como as placas atuais, mas usando algum PC antigo com slots ISA, você poderia perfeitamente usar uma para ouvir sua coleção de MP3 ou fazer gravações simples, com uma qualidade de som não muito diferente da de uma placa atual:













Além da simples reprodução de arquivos de áudio, outro ponto de disputa entre as primeiras placas de som era a síntese de áudio. Diferente do que temos atualmente, jogos antigos não utilizavam trilas sonoras e sons de efeito armazenados em arquivos WAV ou MP3 (que ocupam muito espaço) mas utilizavam os recursos da placa de som para sintetizar o áudio. Embora a qualidade não fosse das melhores, isso permitia que músicas e efeitos ocupassem apenas alguns poucos kbytes, em vez de vários gigabytes como atualmente.

Graças ao padrão MIDI, qualquer placa de som é capaz de sintetizar o som de instrumentos musicais a partir de comandos simples, que lembram a versão digital de uma partitura. Além de ser exaustivamente usado por músicos e profissionais de áudio, o MIDI era muito usado por jogos antigos para a trilha sonora.

A Sound Blaster 16, assim como outras placas antigas suportavam apenas a síntese por FM (frequências moduladas), que era suficiente para gerar ruídos de tiros e explosões, mas resultava em uma qualidade bastante ruim ao sintetizar o som de instrumentos musicais.

A solução veio com a síntese por wave table, usada a partir da Sound Blaster AWE 32 (lançada em 1994). Ao invés de sintetizar o som através da combinação de várias frequências diferentes, como nos sintetizadores FM, nos sintetizadores wave table são usadas amostras de sons gerados por instrumentos reais, o que garante uma qualidade muito superior.

As notas de cada instrumento são tocadas por um músico e armazenadas em chips de memória ROM, incorporados à placa de som. Ao reproduzir o arquivo MIDI, o sintetizador reproduz estas notas gravadas na ordem e volumes estabelecidos, resultando em um som quase indiscernível do de um instrumento real.

Diferente do que tivemos com as placas 3D e outros periféricos, as placas de som atingiram um nível básico de qualidade na primeira metade da década de 90. A partir daí, a evolução das placas passou a ser mais incremental, com o aumento no número de instrumentos simultâneos (a Sound Blaster AWE32 era capaz de reproduzir 32, enquanto a AWE 64 era capaz de reproduzir 64, por exemplo) e na melhoria geral da qualidade de áudio com melhores taxas de signal-to-noise, uso de algoritmos de pós processamento, suporte a mais canais simultâneos e mais saídas de áudio.

Uma evolução importante foi a introdução das APIs para geração de áudio 3D, que permitem gerar efeitos de posicionamento úteis sobretudo em jogos. Graças a eles, em vez de simplesmente ouvir ruídos estáticos, como em jogos antigos, você têm uma experiência mais próxima da realidade, com sons aparentando vir de todas as direções.

Em muitas placas, você tem também a opção de usar filtros com efeitos 3D ao ouvir música, simulando um show onde a banda está tocando em um estádio à sua frente, por exemplo. Em geral, você encontra uma aba para testar os efeitos 3D dentro do utilitário da placa, como nesse exemplo, de um notebook com um codec da Realtek:




















Além da questão da imersão, o os efeitos 3D possuem uma função importante dentro dos jogos atuais, já que permitem que você se oriente com base na direção dos sons e não apenas com base no que aparece dentro do seu campo visual.

Um bom exemplo de aplicação dos efeitos 3D é o Left 4 Dead ou Left 4 Dead 2, onde você pode identificar claramente zumbis atacando pelos lados ou por trás apenas pelo som, a tempo de se virar rapidamente e se defender do ataque. Para melhores resultados, é conselhável usar fones de ouvido, já que diferente de caixas de som (que são difíceis de posicionar corretamente) os fones acompanham seus movimentos, permanecendo sempre na posição ideal.

Efeitos 3D podem ser gerados em estúdio e aplicados em trilhas de áudio que podem ser reproduzidas em qualquer player de mídia. Você pode ver alguns exemplos aqui e no aqui. A grande diferença é que as placas de som são capazes de aplicá-los em tempo real, o que permite que eles sejam usados em jogos e aplicativos.

Continuando, uma das primeiras placas a oferecerem suporte a áudio 3D foi a Sound Blaster Live, de 1998. Ela já era uma placa PCI, que concorreu com placas como a Monster Sound e a Turtle Beach Montego, que não chegaram a ser muito comuns no Brasil.




















Diferente das placas anteriores, que utilizavam controladores simples, a SB Live utilizava o EMU10K1, um chip DSP com 2.4 milhões de transistores (dois terços do número de transistores de um Pentium 1), com um poder de processamento estimado em 1 gigaflop.

O aumento no poder de processamento possibilitou vários avanços em relação às placas antigas. Os mais notáveis foram o suporte à reprodução de múltiplos fluxos de áudio via hardware, suporte a áudio 3D e suporte à aplicação de efeitos de áudio através do EAX, como o reverb (efeitos de eco), choir (efeito de dobra, que torna o som mais rico, como se cada nota fosse tocada por vários instrumentos simultaneamente) e assim por diante. Estes efeitos são processados pela própria placa, o que permite que os efeitos escolhidos sejam automaticamente aplicados ao ouvir música.

Em vez de armazenar as amostras de som para a síntese por wave table em um chip ROM como nas placas ISA, na SB Live os samples eram incorporados aos drivers e transferidos para a placa através do barramento PCI. Este mesmo sistema é usado em placas atuais, já que permite usar conjuntos maiores de amostras e ao mesmo tempo cortar custos, eliminando a necessidade de usar o chip de memória ROM.

Esta progressão na capacidade de processamento continuou com a SB Audigy (lançada em 2001), a SB X-Fi (de 2005) e várias concorrentes, que incorporaram mais efeitos, suporte à versões atualizadas das APIs de áudio 3D e o suporte ao processamento de mais fluxos de áudio via hardware. A X-Fi, por exemplo, é baseada no chip EMU20K1, que possui 51 milhões de transistores (quase o mesmo que um Pentium 4 Northwood) e opera a 400 MHz.

O grande problema com placas dedicadas como a Audigy e a X-Fi é que o custo limita o uso a nichos específicos, como no caso de músicos, audiofilicos e gamers que fazem questão de jogar com uma placa dedicada para minimizar a carga sobre o processador.

Como a maioria dos usuários ouve arquivos de áudio com qualidades relativamente baixas (como no caso dos MP3 de 128 kbps) ou não usam caixas de som ou fones de boa qualidade, placas de som mais baratas acabam sendo boas o suficiente, já que embora careçam do processamento de múltiplos fluxos de áudio via hardware e não sejam capazes de aplicar muitos efeitos de pós processamento, a qualidade do som não é tão diferente assim.

Isso nos leva às placas de som onboard, que evoluíram bastante na última década e passaram a ser usadas em praticamente todas as placas-mãe, virtualmente eliminando o mercado de placas de som dedicadas.

As primeiras placas-mãe com som onboard simplesmente integravam os circuitos de uma placa de som regular na placa-mãe. Essa primeira geração não foi muito popular, já que a integração dos componentes complicava os projetos e tornava as placas consideravelmente mais caras.

A solução veio com a criação do padrão AC'97 que foi (previsivelmente :) finalizado em 1997 e se tornou rapidamente bastante popular. Assim como todos os outros sistemas atuais de som onboard, o padrão AC'97 divide os componentes em duas partes: os componentes digitais, integrados à ponte sul do chipset e os componentes analógicos, agrupados em um chip separado, o codec.

No caso dos chipsets Intel da família 8xx, por exemplo é usado um controlador DC97, integrado ao ICH. Ele é um controlador simples, que oferece suporte a até 6 canais de áudio, com até 20 bits de resolução e frequência de 48 kHz, o que é suficiente para assistir DVDs usando um sistema de caixas 5.1.

Similar ao que tínhamos nos softmodems, quase todo o processamento de efeitos em placas AC'97 é feito via software, através de componentes integrados aos drivers. Quando é necessário reproduzir vários fluxos de áudio simultaneamente (como ouvir um MP3 e falar no Skype), por exemplo, o driver de som se encarrega de mesclar todos os fluxos na saída unificada.

Isso permite o uso de áudio 3D e outros efeitos, sem necessidade de usar um caro controlador dedicado, como no caso de placas como a SB Audigy e funciona bem em situações onde o processador está parcialmente ocioso (como ao ouvir um MP3 e editar um documento no OpenOffice, por exemplo). A desvantagem, como pode imaginar, é que o processamento do som reduz o desempenho em tarefas intensivas (como no caso dos jogos) onde parte dos ciclos de processamento são desviados para o processamento do som.

Este foi um tema bastante discutido na época em que as placas AC'97 foram introduzidas. Entretanto, com a evolução dos processadores a diferença foi se tornando cada vez menor, até praticamente desaparecer com a introdução dos processadores dual-core e quad-core, onde quase sempre existe uma boa dose de processamento ocioso. Em um PC atual, você dificilmente notará qualquer alteração perceptível no FPS relacionada ao processamento do som.

Continuando, o controlador DC97 é ligado ao codec através do AC-Link, um barramento digital composto por apenas 5 trilhas (duas para o sinal de dados, duas para o sinal de sincronismo e clock e a última para o comando de reset).

Finalmente, temos a parte mais importante, que é o codec, o chip responsável por transformar o sinal digital enviado pelo chipset de áudio no sinal analógico, que é enviado às caixas de som e de fazer o inverso com o sinal das entradas de áudio, transformando o sinal analógico capturado pelo microfone no sinal digital que é enviado ao chipset.

O codec é um chip pequeno, quase sempre instalado na beirada da placa, próximo aos conectores de áudio do painel ATX:

















Este da foto, por exemplo, é um Realtek ACL650, um chip extremamente comum em placas fabricadas entre 2002 e 2006. Embora muito barato, ele oferece uma qualidade de áudio relativamente boa, com uma taxa de signal-to-noise de 90dB (o que não é ruim para um chip de baixo custo) e suporte a até 6 saídas independentes.

Embora tenha sido criado pela Intel, o AC'97 é um padrão aberto. Isso não apenas permitiu que ele fosse usado em chipsets de diversos fabricantes (incluindo a VIA, SiS e até mesmo a AMD) mas também que fossem lançados diversos modelos de codecs diferentes, produzidos por diversos fabricantes, incluindo a Realtek, Yamaha, VIA, Conexant e muitos outros. Os dois componentes são independentes, de forma que o fabricante da placa-mãe pode combinar um chipset da Intel com um codec da Realtek, por exemplo, de forma a cortar custos.

Em 2004, foi finalizado o padrão HD Audio (também chamado de Azalia), que oferece suporte aos sistemas de áudio de alta resolução usados em discos Blu-ray e em um crescente número de jogos e arquivos de mídia, como o Dolby Digital Plus e o DTS-HD.

Ele eleva as taxas máximas para 192 kHz e 32 bits e adiciona suporte a até 10 fluxos de áudio independentes, que possibilitam o uso de saídas de áudio múltiplas. Desde que a placa-mãe inclua os conectores apropriados, você pode assistir um filme usando um conjunto de caixas 7.1 plugado nos conectores traseiros e, simultaneamente, usar o Skype ou jogar usando um fone estéreo ligado à porta frontal do gabinete.

Assim como o AC'97, o HD áudio é um padrão aberto, o que permitiu que ele fosse adotado em chipsets de vários fabricantes. Com exceção de algumas placas de baixo custo (que ainda usam áudio AC'97), ele é encontrado em praticamente todas as placas atuais, incluindo as com chipsets da AMD e nVidia.

Assim como no caso do AC'97, o HD Audio utiliza um codec separado. O mais comum é o Realtek ACL888, que oferece uma taxa de signal-to-noise de 97dB e oferece suporte às 10 saídas independentes especificadas no padrão.

Assim como no AC'97, todo o processamento é feito via software, o que permite que as placas ofereçam suporte a um conjunto bastante completo de APIs e efeitos (os drivers da Realtek para o ACL888, por exemplo, oferecem suporte ao EAX 2.0, Direct Sound 3D, A3D, I3DL2 e ao HRTF 3D), muito embora não incluam um chip DSP dedicado. Como de praxe, o processamento é todo executado pelo processador principal.

As placas com controladores HD Audio incluem tipicamente um conjunto de conectores de áudio como este:












Veja que além das 6 saídas de som analógicas estão disponíveis também duas opções de conexões digitais S/PDIF: uma saída coaxial (o conector RCA ao lado do conector do teclado) e uma saída óptica com conector TOSLINK (o conector fechado, ao lado do mouse).

Elas são usadas por muitos sistemas de home theater que, para evitarem a degradação do som, recebem o sinal ainda em formato digital e fazem a conversão digital/analógico internamente, antes de enviar o sinal para as caixas de som.

Nem todas as placas incluem legendas para os conectores analógicos, já que eles são etiquetados pela cor do conector. Caso esteja em dúvida, aqui vai uma cola rápida:

Azul: Line-in (entrada de áudio)
Verde: Line-out (speakers ou fones estéreo)
Rosa: Microfone
Laranja: Subwoofer e caixa central (em sistemas 5.1 e 7.1)
Preto: Caixas de som traseiras (em sistemas 5.1 e 7.1)
Cinza: Caixas para efeitos surround (em sistemas 7.1)


Fonte: Guia do Hardware.net

Programas essencias para a internet e para o dia-a-dia

Para que você navegue bem no Genix Info ou em qualquer lugar na internet, eu recomendo, que você instale ou tenha instalado, os seguintes programas:

1 - Mozilla Firefox
2 - Adobe Flash Player
3 - Java SE Runtime Environment


Além dos programas citados, eu recomendo, que você instale ou tenha instalado, para uso no dia-a-dia:

4 - Adobe Reader
5 - BrOffice.org
6 - GIMP
7 - Inkscape
8 - VLC
9 - SMPlayer
10- Audacity
11- Avidemux
12- HandBrake


A maioria desses programas são freeware ou são software-livre e a maioria também é multiplataforma.

sábado, 2 de janeiro de 2010

Bem vindo!

Em primeiro lugar, eu quero desejar um Feliz Ano Novo a todos.

E em segundo lugar eu estou aqui para anunciar a todos a inauguração deste novo blog, este novo blog, o Genix Info, irá substituir o BR Software Livre. O Genix Info vem com uma idéia de ser um espaço mais amplo onde será falado tudo sobre Informática e Tecnologia em Geral.


Obrigado a todos que tem visitado o BR Software Livre e que tem me acompanhado até aqui, espero que agora continuem me acompanhando e que gostem do Genix Info.