quarta-feira, 30 de junho de 2010

Tecnologia nos estádios de futebol: até quando os erros grosseiros vão perdurar?

Outros esportes dão exemplos, mas o futebol nem estuda o assunto.


Copa do Mundo. Oitavas de final. Perdeu, está fora. Por qualquer detalhe, todo o trabalho de meses pode ir por água abaixo. E quando esse detalhe é decidido erroneamente pelos árbitros? Foi o que presenciamos em dois jogos da Copa de 2010: Alemanha e Inglaterra, Argentina e México.

Os erros escandalosos de arbitragem nessas duas partidas reabrem uma discussão que não é tão nova: por que o futebol não usa a tecnologia para minimizar os erros dos árbitros? É o que o Baixaki quer debater com você.

O que aconteceu

A Alemanha vencia a Inglaterra por 2 a 1. Aos 38 minutos do 1º tempo, o inglês Frank Lampard acertou um belo chute por cobertura. A bola bateu no travessão, entrou no gol (passou mais de 30 cm da linha) e voltou para as mãos do goleiro alemão. O gol não foi marcado e o placar final foi de 4 a 1 para os alemães.

O gol de Lampard que não foi validado.

Imagem: Getty Images

Horas depois, o jogo entre Argentina e México estava 0 a 0 quando Carlos Tévez, atacante argentino, muito mais adiantado que o zagueiro mexicano, completou para o gol. O impedimento não foi marcado e a Argentina venceu por 3 a 1.

Curiosamente, os telões do estádio exibiram o lance, para desespero dos jogadores mexicanos, que tentavam convencer o árbitro do erro grosseiro. Não adiantou.

A FIFA, entidade máxima do esporte, permaneceu calada. Fato é que ela não gosta dos telões e instrui a somente exibir os lances não polêmicos. O que aconteceu na partida entre Argentina e México foi, de fato, um erro dos operadores dos telões.

Poderia ser diferente?

Quem estava em casa, assistindo pela TV, ou até mesmo no estádio, com televisores portáteis e aparelhos celulares, percebeu o erro em poucos segundos. Pouquíssimos segundos, menos de 10.

Então, da mesma maneira que é fácil para os espectadores, por que não o é para árbitros? No futebol americano e no basquete profissional da NBA, os árbitros param a partida e recorrem às câmeras para definir lances polêmicos. No hockey, um sensor de impacto fica no gol e dispara uma sirene para confirmar o tento.

O Olho de Águia, usado no tênis.No tênis, a tecnologia é ainda maior, com o Olho de Águia, como é conhecido. Sabe-se que a bola se movimenta muito rapidamente e é muito difícil determinar se ela passou inteira ou resvalou o mínimo que seja na linha da quadra.

Nesses casos, o árbitro de linha toma uma decisão, mas o jogador pode desafiar a marcação. Então a tecnologia entra em ação. Trata-se de um sistema que traça o caminho da bola visualmente, que é exibida tridimensionalmente em um telão e na hora para acabar com qualquer dúvida.

No futebol, isso não acontece. Segundo Joseph Blatter, são os erros que garantem a “fascinação e popularidade” do futebol. Em outras palavras, as discussões de domingo acabariam.

Em 2008, uma versão do Olho de Águia para o futebol foi desenvolvida e proposta. Seriam 12 câmeras que determinariam a posição da bola e enviariam uma mensagem ao árbitro. O tema foi debatido, mas o sistema foi rejeitado pela FIFA. A justificativa de Blatter: é caro e nem sempre conclusivo.

Jogadores, em geral, aprovam

Jogadores, técnicos e outros envolvidos com o futebol se mostraram favoráveis ao uso da tecnologia. O técnico da seleção inglesa de futebol, Fabio Capello, foi enfático ao dizer que “é incrível que em uma época com tanta tecnologia os árbitros não sejam capazes de decidir se foi ou não gol”.

O ex-craque holandês Johan Cruyff também é a favor da presença de câmeras pelo menos nos gols, mas fez uma ressalva quanto ao uso intenso do equipamento, que pararia muito as partidas. Essa é outra justificativa da FIFA para não usar as câmeras. Além disso, os árbitros perderiam autonomia e autoridade.

A tecnologia já é usada em replays, por que não para dúvidas?

Não é o que se observa na NBA e no futebol americano, nos quais quem decide se a câmera vai entrar em ação é justamente o árbitro. No tênis, é o jogador quem pede, mas ele tem um limite de vezes para recorrer ao Olho da Águia.

É fato que tênis, futebol americano e basquete são esportes que param muito mais durante uma partida do que o futebol. Mas será que um pouco de bom senso não seria o suficiente para definir quais lances devem ser decididos eletronicamente?

Já reparou no tempo que um time que sofreu com um lance irregular perde para reclamar? Certamente não é maior que o necessário para recorrer a uma câmera. Obviamente, as tecnologias não seriam aplicadas a todo instante. Isso não acontece sequer no tênis, que usa uma das mais avançadas tecnologias.

Chip na bola e adaptação

Desde 2007, discute-se a implementação de chips nas "redondinhas" para saber se uma bola cruzou totalmente a linha ou não, algo que evitaria a polêmica no gol da Inglaterra, por exemplo. Também se discute o uso de microcâmeras nas traves. Mas a relutância da FIFA impera.

Por um lado, com certeza vale a pena relutar enquanto um sistema não se mostra absolutamente perfeito. Por outro, com tantos exemplos de que dá certo, essa relutância se mostra injustificável. É uma simples questão de adaptação: usar o que dá certo em outros esportes de maneira adequada às características do futebol.

O que a FIFA está disposta a fazer é apostar cada vez mais no humano. A entidade autorizou as confederações de futebol a usar dois árbitros a mais, um atrás de cada gol, para ajudar em lances polêmicos. Fica a dúvida: eles estão menos suscetíveis a falhas do que os outros humanos?

Uma reviravolta?

Momentos após a publicação original deste texto, a FIFA decidiu se pronunciar, e prometeu retomar as discussões sobre o uso da tecnologia a favor do futebol em julho, durante uma reunião no País de Gales. A princípio, será discutido somente o uso de aparatos na linha do gol para evitar erros como a não marcação do gol da Inglaterra.

Isso significa que impedimentos, pelo menos por enquanto, continuam fora da pauta. A justificativa da FIFA é que uma equipe pode pedir o replay várias e várias vezes, comprometendo o andamento do jogo. Mesmo assim, é um começo para mudanças significativas.

Google Me pode abocanhar Orkut e ser a nova rede social do Google

O Orkut como conhecemos pode acabar. Kevin Rose, fundador do serviço Digg, afirmou em seu Twitter que possui fontes fidedignas de que uma nova rede social para competir com o Facebook será lançada pela Google ainda neste ano. Esta rede social agregaria todos os serviços sociais da empresa, incluindo o nosso querido Orkut, e colocaria um ponto final na dispersão das funcionalidades.

A Google, que ainda não se pronunciou oficialmente sobre o assunto, tentaria então obter a parcela do mercado que hoje é dominado pelo Facebook (detentor de 400 milhões de usuários ao redor do mundo).

Um serviço paralelo ao Orkut?

O Orkut é, sem margem para dúvidas, a rede social mais utilizada no Brasil, muito mais popular do que Facebook, Twitter e outras de menor expressão. Apesar de esse número de usuários brasileiros ser bastante grande, em escala mundial a rede social da Google fica muito atrás do concorrente Facebook, este possuindo mais de 400 milhões de adeptos.

E mesmo com o recente fracasso do Buzz, a Google parece não ter desistido de correr atrás dos usuários que prosseguem migrando para o Facebook. A maior prova disso está em uma possível modificação de todos os serviços sociais Google, conforme foi divulgado por Kevin Rose, fundador do Digg em seu Twitter oficial.

Imagem: Google Buzz / Divulgação

Rose é conhecido por sempre divulgar rumores que tornam-se reais no futuro. Ele disse que, segundo fontes confiáveis, a Google estaria desenvolvendo um novo modelo de sociabilização pela internet. O tweet dele diz: "OK, umm, huge rumor: Google to launch facebook competitor very soon Google Me, very credible source", em português: “Hmm, fontes confiáveis dizem que muito em breve a Google vai lançar um concorrente para o Facebook, o Google Me”.

Ou o fim do Orkut?

Este novo recurso não assustaria aos usuários brasileiros, se não fosse por um pequeno detalhe: no Gmail americano já não está mais sendo vinculado o link direto para as contas do Orkut. O que isso quer dizer? Por enquanto são apenas especulações, mas ao que tudo indica, o Google Me vai fazer com que o Orkut seja encerrado.

O que a imprensa norte-americana está imaginando é que, com isso, a Google agregue vários recursos que já estão sendo utilizados há algum tempo, mas por usuários muito esparsos.

Seria o fim do Orkut?

Por exemplo: levando em consideração que todos os usuários do Gmail (mais de 200 milhões) já possuem o Buzz e que 100 milhões acessam o Orkut, o Google Me (que seria automaticamente implantado, assim como o Buzz) já iniciaria suas atividades com mais da metade do número de adeptos do grande rival Facebook.

Google e as redes sociais

Se esses boatos forem confirmados, é possível que a Google esteja assinando sua sentença de morte no mundo das redes sociais. De um lado estão os usuários brasileiros que estão acostumados com o formato atual do Orkut e não parecem demonstrar sinais de satisfação com a possibilidade do fim.

De outro lado, estão os norte-americanos que não conseguem se acostumar às falhas da manutenção na privacidade da rede social. O Google tem acesso a muitas informações relacionadas aos usuários e o medo de um vazamento de dados faz com que muitos sejam avessos a uma rede social anexada ao email pessoal.

Redes sociais sempre movimentam boatos

Independente da origem do usuário, todos esperam ansiosamente por uma informações oficiais dos engenheiros da Google. Não se sabe se as alterações serão impostas a todos, se usuários do Gmail serão colocados no Google Me automaticamente, nem quais serviços serão agregados. Mas a retirada do Orkut dos links nativos do Gmail e o tweet de Kevin Rose fazem com que os boatos corram ainda mais rápido.

Você acha que, caso as informações se concretizem, é possível que os usuários brasileiros migrem sem problemas para esta nova rede social? Ou o fim do Orkut fará com que todos partam em busca do Facebook?


sábado, 26 de junho de 2010

Disco rígido da Hitachi possui apenas 7mm

Para quem ainda usa HDs e crê na permanência dos dispositivos no mercado, talvez o anúncio oficial desse produto seja um raio de esperança. Segundo o site oficial, a Hitachi está fabricando discos rígidos ultrafinos voltados para o mercado dos computadores móveis.

A Hitachi divulga o produto dando um grande foco na espessura de 7mm — algo que realmente merece destaque. Vale frisar que apesar da espessura reduzida, o novo disco da Hitachi trabalhará a 7200 RPM, o que mostra que a fabricante japonesa conseguiu inovar sem retirar qualidades positivas do produto.

Mais detalhes

Os novos produtos pertencer a série TravelStar Z e haverá versões de 160 GB, 250 GB e 320 GB. Além de boa capacidade para armazenamento, os discos ultrafinos terão 16 MB de buffer de memória e trabalharão com interface SATA 3Gb/s.

Ainda não foram divulgados preços e não há modelos de notebooks equipados com tais produtos, todavia certamente os modelos futuros terão a vantagem de trazer um HD rápido e muito leve. Em breve possivelmente teremos notebooks ainda mais finos, visto que o disco e a fonte são os maiores empecilhos nos quesitos espessura e leveza.

Mais fino e muito rápido

Talvez até seja ousadia da Hitachi investir nesse mercado, contudo a estratégia deles parece muito interessante, visto que os novos SSDs são muito caros e ainda não chegam a compensar o investimento.

Computex 2010: SSD com alta velocidade de transferência anunciado pela OCZ

Uma das maiores preocupações de quem adquire um computador atualmente, além da qualidade de processamento e desempenho, é a velocidade de transferência de dados. Os discos rígidos estão cada vez mais eficientes nesse quesito, com taxa de rotação cada vez mais altas, sem contar os discos rígidos de estado sólido, com capacidades ainda maiores.

A empresa OCZ Technology Group, uma das líderes no que diz respeito a discos rígidos de estado sólido (solid-state drives ou SSD) e módulos de memória para computadores anunciou na Computex 2010 em Taipei (Taiwan) seu novo modelo. O sistema é composto por oito de seus novos SSDs Deneva, baseados no controlador SandForce SSF-1500, utilizando interface SAS (Serial-attached SCSI) e memória flash SLC.

O modelo proposto é considerado pela empresa uma das melhores tecnologias para armazenamento e performance, tanto para empresas quando consumidores finais. Durante a demonstração efetuada na Computex, o sistema foi capaz de transferir dados a uma taxa de quase 1 GB por segundo.

Taxas de transferência incríveis!

Em partes, o maior responsável por essa velocidade incrível de transferência é o controlador SAS 2.0 LSI utilizado na construção do dispositivo. Adotando a configuração de “RAID de oito modos”, um dos objetivos principais desse sistema é, além de oferecer maior compatibilidade, obter uma das maiores taxas de transferência do mercado.

A OCZ aposta na inovação da interface HSDL (High Speed Data Link), que consegue transferir dados a velocidades muito superiores do que a tradicional SATA. No momento, essa tecnologia ainda não está disponível no Brasil e estima-se que o valor não deva ser dos mais agradáveis, ainda que a OCZ esteja buscando manter preços competitivos.

Os bastidores da internet

É difícil para a Geração Y – os nascidos a partir da década de 1980 – imaginar um mundo em que não haja acesso à web. Mesmo quem nos tempos da famigerada conexão discada de 14400 kbps estava online, ou só depois da meia-noite e aos sábados, quando a ligação era mais barata.

Mas houve uma época em que não havia conexão nem entre computadores em salas adjacentes, imagine então uma rede integrada cobrindo praticamente o mundo inteiro. O método mais fácil de entrar em contato com alguém eram os telefones – apenas fixos – e as secretárias eletrônicas de fita infinita.

Em todo o mundo

Teias tecnológicas

Mesmo antes disso uma das bases para o que hoje é a internet já estava sendo posicionada: a rede de cabos oceânicos.

Desde os tempos dos telégrafos – ainda no século 19 – as comunicações entre continentes, principalmente América do Norte e Europa, acontece graças a enormes cabos desenrolados na superfície por barcos especiais, e instalados no fundo do mar.

Com o desenvolvimento da tecnologia, esse cabeamento passou a atender linhas telefônicas e, mais tarde, também às conexões de internet. Atualmente, fibras óticas se estendem por todos os oceanos garantindo a ligação entre os continentes.

Cabos submarinos de fibra óticaCada um desses cabos é construído de forma a proteger os sinais que ali trafegam. Além de cabos elétricos – responsáveis por manter as propriedades condutoras das fibras óticas – e das próprias fibras, várias camadas de proteção atuam contra a corrosão pela água salgada e contra interferência de sinal.

Anualmente, diversas empresas instalam milhares de quilômetros de cabos desse tipo no mundo, enquanto os mais antigos são desativados ou têm uso desviado para fins puramente científicos.

Essa estrutura de cabos é bastante segura, mas como tudo no mundo, não é completamente imune a falhas ou acidentes. Um exemplo bem próximo foi a quebra dos cabos da Global Crossing que interligam o Brasil com a estrutura de internet dos Estados Unidos em fevereiro de 2010.

Mapa da Alcatel mostrando todos os cabos submarinos instalados  atualmente

Apesar de todas as proteções físicas aos cabos e também de medidas de redundância – que redirecionam para outros cabos o tráfego de informações durante uma eventual quebra de ligação no ramo principal –, vários internautas tupiniquins sofreram de lentidão e até mesmo falta de acesso graças a esse acidente.

Em órbita

O  Sputnik 1O outro principal canal – porém em escala muito menor que o cabeamento submarino – de informações para o mundo online é a transmissão via satélite. Presentes no espaço próximo do planeta desde 4 de outubro de 1957, quando a União Soviética colocou o Sputnik em órbita, os satélites hoje são responsáveis por diversas tecnologias atuais, como o GPS e também a transmissão de dados.

Apesar de responsáveis por menos de 20% do tráfego de informação da internet atualmente, a conexão por satélite é utilizada principalmente para levar conexão de alta velocidade até locais de difícil acesso.

Satélite de comunicação (imagem: Boeing)Uma das grandes restrições para o uso disseminado de satélites para a conexão com a internet é a limitação de banda disponível, uma vez que TVs, operadoras de telefone, governos e empresas – como a Google – utilizam satélites para diversas outras tarefas além da transmissão de dados da web.

Como existe certa limitação de constelações de satélites, já que seu funcionamento depende de posicionamento, tempo e distância da superfície, a quantidade de equipamentos disponíveis para uso exclusivo na conexão com a internet é relativamente pequena.

Nas ondas do rádio

Logo depois de comentar sobre satélites, e falar sobre a conexão wireless – sem fio, literalmente –, pode parecer que as redes Wi-Fi funcionam graças a equipamentos em órbita, mas não é bem assim.

O  roteador de Wi-Fi é uma versão doméstica das torres de transmissão de  dados por rádioCelulares, notebooks e outros aparelhos podem se conectar à internet sem o uso de cabos graças a antenas de rádio específicas, semelhantes – mas muito mais poderosas – ao roteador Wi-Fi que você tem em casa.

Devido às características de onda – frequência, e outras variáveis físicas, para quem se lembra do ensino médio – essas redes não são apropriadas para a distribuição intensa como a feita através das fibras óticas ou satélites.

O que acontece de fato é que todos os dados transmitidos pela antena para seu smartphone ou netbook trafegam, em algum momento, por uma fibra ótica submarina ou pelo sinal de um satélite de comunicações.

Conectando computadores

Foto de época mostrando um mainframe com entrada de dados por fitas  magnéticasEnquanto os soviéticos se preparavam para mandar o primeiro satélite artificial para uma órbita espacial, nos Estados Unidos e na Europa agências militares e universidades trabalhavam no refinamento do processo de utilização dos computadores.

Os mainframes, que executavam os aplicativos desenvolvidos em outras máquinas, utilizados pela defesa americana em suas pesquisas eram guardados em salas especiais, impedindo o acesso direto dos desenvolvedores ao equipamento. Com isso, falhas surgiam e tempo era gasto. Como o custo de manutenção dessas máquinas era muito alto, alternativas eram necessárias para otimizar sua utilização.

A agência americana desenvolve então uma rede de computadores em que os diversos laboratórios compartilhavam dados através de um servidor central, de maneira que a velocidade no acesso à informação garantisse que pesquisas não seriam duplicadas e diminuindo também a perda de tempo na troca de dados. Nascia a ARPAnet.

mapa da ARPAnet em 1980

Praticamente ao mesmo tempo, a rede militar da americana RAND Corporation, a teia comercial do National Physical Laboratory – NPL (laboratório físico nacional) da Inglaterra e a comunicação dos computadores científicos através do Cyclades francês criaram tecnologias tão essenciais para a internet quanto a conexão dos sistemas de pesquisa de defesa americanos.

Protocolos de controle, otimização da transmissão de grandes quantidades de informação, arquitetura descentralizada de ligação entre pontos e a comunicação entre redes diferentes foram os avanços que, reunidos, deram origem à internet atual. O próprio termo – Inter-net – surgiu a partir do funcionamento da rede Cyclades.

A rede

Pronto. Agora sabemos que computadores podem se comunicar entre si de diversas formas, aproveitando a infraestrutura de cabos submarinos e satélites. A partir das experiências com redes de diversas naturezas – acadêmica, científica, militar e comercial – chegou-se a uma série de conceitos que permitem a troca, praticamente em tempo real, de informação entre essas maquinas.

Mas como essa ligação funciona, realmente? Qual a mágica que permite a uma pessoa no Japão – ou em qualquer outro lugar do mundo - acessar o portal Baixaki após digitar algumas poucas letras?

Como a internet funciona

Sempre que você pede a seu navegador para acessar uma URL, entra em cena um servidor especial da rede, o DNS (Domain Name Server – servidor de nomes de domínio). Este computador especial envia para o seu PC o endereço IP dos arquivos (HTML, PHP etc) que compõem o site.

iStock

Endereços IP (Internet Protocol) são uma sequência de números que indica à estrutura da internet – modems, navegadores, servidores etc – a localização exata dos arquivos relacionados a um determinado URL.

Para simplificar, pense em um endereço físico. Casas e apartamentos se situam em vias públicas, dentro de bairros, cidades e assim por diante. Para as máquinas dos correios, identificar o destino de cada carta ou encomenda enviada a partir dessas informações é muito complicado.

Como os correios funcionam de forma automatizada, toda carta deve conter um CEP (código de endereçamento postal), de interpretação mais fácil para os computadores.

iStockAssim, o endereço IP de um servidor pode ser considerado o CEP digital de um site na internet. Porém, como a rede é mundial, é muito mais difícil codificar cada localização com um identificador único. Por isso, o número que forma os endereços IP é assinalado em decimais divididos por pontos, semelhante a 256.25.2.256.

Cada intervalo desses números pode assumir valores entre 0 e 255, já que esse valor é – no servidor DNS – escrito de forma binária para ser corretamente interpretado por um computador. O IP acima, por exemplo, seria escrito como 100000000.10000000011001.1000000001100110.100000000 na forma binária para o servidor DNS e para seu modem.

Conhecendo esse endereço, seu computador passa então a descarregar o código dos diversos arquivos – imagens, texto, diagramação etc – que compõem o Baixaki, por exemplo.

iStock

Caso o servidor DNS que você utiliza não reconheça a URL que você enviou, isso não significa que você não chegará até o site. Quando isso acontece, vários servidores DNS começam a “conversar” entre si em busca do IP. Talvez demore um pouco mais para o site ser carregado, mas isso acontecerá assim que possível.

Carregando os sites

Dentro do seu computador, vários outros processos também acontecem durante a decodificação de um site. Assim que o navegador recebe o endereço IP correto, HTML e CSS tomam forma de texto, ocorrem alterações visuais na tipografia e o posicionamento dos elementos, imagens transformam-se de números binários em pixels coloridos e assim por diante.

Tudo isso acontece em altíssima velocidade – limitada principalmente pela banda disponível em sua conexão -, mas aí já é assunto para outro artigo.

terça-feira, 22 de junho de 2010

Novo iPhone 4 ganha câmera para conversas em vídeo e fica mais fino

Modelo chega aos EUA em 24 de junho, a partir de US$ 199.
Anúncio foi feito durante o evento WWDC, na cidade de San Francisco.

iPhone 4
iPhone 4: câmera frontal, mais fino e nova tela.
(Foto: Robert Galbraith/Reuters)

Após um protótipo do aparelho ter sido roubado em um bar e as imagens terem vazado na internet, a Apple apresentou oficialmente nesta segunda-feira (7) o novo modelo do telefone celular iPhone. Batizado de iPhone 4, o aparelho tem como principais características uma tela de alta definição, design mais fino e uma câmera frontal, que permitirá conversas em videoconferência.


Nos EUA, o telefone será vendido a partir do dia 24 de junho, por US$ 199 na versão com 16 GB de memória, e US$ 299 pelo modelo com 32 GB. O lançamento será simultâneo no Japão, França, Alemanha e Reino Unido.

Quarta versão do telefone introduzido pela Apple em 2007, o iPhone 4 é 24% mais fino do que o modelo 3GS, apresentado há um ano. O smartphone virá revestido de vidro na parte frontal e na traseira, e estará disponível nas cores preto e branco.

A câmera tradicional, na parte traseira, utilizada para fotos e vídeos, ganha um flash para imagens em locais escuros, além de resolução de 5 MP, contra 3 MP do modelo anterior. A gravação de vídeo é em alta resolução, com 720 linhas progressivas capturadas em 30 quadros por segundo. A câmera frontal permitirá chamadas em vídeo, por meio de um aplicativo batizado de FaceTime.

A tela, que utiliza tecnologia batizada de "Retina Display", terá resolução de 326 pixels (ou pontos) por polegada, contra 163 pixels das telas utilizadas nos três modelos anteriores. O tamanho do display, no entanto, permanece igual. Com a alteração, a celular passa a exibir quatro vezes mais pontos na tela, de 960x640 pixels.

  • Em vez de uma antena, o aparelho utilizará a estrutura lateral de aço para receber sinais de celular. No "coração", o telefone terá o mesmo chip Apple A4 utilizado no iPad. As funções Wi-Fi, GPS e Bluetooth, já presentes nos modelos anteriores, seguem disponíveis.

Com a utilização do chip, o iPhone ganhará em eficiência no consumo de bateria, segundo Jobs. O novo modelo tem autonomia até 40% maior que seu antecessor. Na apresentação, a Apple afirmou que o iPhone 4 fica ligado por até 300 horas em modo stand-by.

Para quem utiliza o iPhone como videogame, a novidade é o sistema de giroscópio, que aumenta a precisão na leitura de movimentos do aparelho. O giroscópio capta velocidade e a força dos movimentos do usuário. O iPhone já tinha acelerômetro, sensor de proximidade e bússola.

Steve Jobs mexe no iPhone 4
Jobs, com o novo iPhone 4. (Foto: Paul Sakuma/AP)

Sistema rebatizado
O anúncio do novo modelo foi feito pelo CEO da empresa, Steve Jobs, na abertura da Worldwide Developers Conference (WWDC) 2010, que vai até 11 de junho na cidade San Francisco, nos Estados Unidos.

No evento, Steve Jobs aproveitou para rebatizar o sistema operacional do iPhone, anteriormente chamado simplesmente de iPhone OS. Como o programa já está presente no iPhone Touch e no iPad, ele agora passa a se chamar iOS. A nova versão, iOS 4, que já havia sido apresentada em abril, tem como maior novidade a possibilidade de rodar mais de um aplicativo ao mesmo tempo. Também é possível criar pastas de aplicativos, além de acessar uma caixa de e-mail unificada. O sistema será disponibilizado para download em 21 de junho, e poderá ser instalado em telefones iPhone 3G e 3GS.

No novo iOS4, a Apple adicionou o Bing, da rival Microsoft, entre as opções de buscadores disponíveis. A mudança é uma resposta ao Google, que tem mostrado crescimento no mercado de telefonia celular com seu sistema operacional Android.

O programa ganha também o sistema de anúncios iAd, que insere publicidade no ambiente dos aplicativos para iPhone, iPad e iPod Touch. Nissan, Citi, Unilever, AT&T, Chanel, General Electrics, Sears e Disney estão entre as empresas que já fecharam acordo com a Apple para anunciar pelo iAd.

iPhone 4
iPhone 4 chega aos EUA dia 24. (Foto: Divulgação)

iPad
Antes de mostrar o novo iPhone, Jobs aproveitou o evento para falar do iPad, o tablet da Apple. Segundo ele, um aparelho é vendido no mundo a cada três segundos. Na App Store, loja virtual de aplicativos, já são vendidos 8.500 programas exclusivos para o sistema. No total, os proprietários de iPad já fizeram o download de 35 milhões de aplicativos.

O desempenho do iPad impulsionou a Apple em mais um mercado: o de livros digitais. Partindo do zero, no lançamento do aparelho nos EUA, em 3 de abril, a Apple já é responsável, segundo Jobs, por 22% das vendas de eBooks no mercado americano. O valor representa 5 milhões de livros comercializados. A Amazon, líder do setor, já atua neste mercado desde novembro de 2007, com o lançamento do Kindle.

Locação de vídeo e 'Farmville'
Desenvolvedores foram chamados ao palco por Jobs para apresentar novidades para iPad e iPhone. Entre os destaques estão a chegada do jogo social "Farmville", sucesso no Facebook, para iPhone, e do sistema de download de filmes Netflix.

A Zynga, desenvolvedora do “Farmville” anunciou uma versão do game para o celular. No jogo, o usuário cuida de uma fazenda virtual. Itens extras poderão ser comprados diretamente no game, e haverá avisos que os usuários receberão pelo sistema de alertas "push".

O iPhone também ganhou o aplicativo de aluguel e compra de filmes digitais Netflix. Os usuários do aparelho poderão baixar filmes sob demanda. Presente nos videogames PS3, Xbox e Wii, o serviço não está disponível no Brasil.

Mais de 5 bilhões de aplicativos já foram baixados na App Store e, segundo Jobs, a empresa pagou mais de US$ 1 bilhão aos desenvolvedores, que recebem 70% do valor pago pelos consumidores.

iPhone 4 nuvem
Jobs, durante apresentação do iPhone 4 em San Francisco, nos EUA. (Foto: Paul Sakuma/AP)