Tecnologia “Li-Fi” conecta a internet através das lâmpadas

li-fi
Uma nova tecnologia para conexão com a internet vem apresentando um progresso bem significativo. Chamada de tecnologia “Li-Fi”, do termo “light fidelity”, foi criada por um grupo de pesquisadores chineses que transformaram lâmpadas comuns em emissoras de sinais “Wi-Fi”, e já há quem pergunte se este será o fim dos roteadores domésticos.

De acordo com os pesquisadores, a eficiência da frequência da luz resultou ser maior que a das ondas de rádio, possibilitando a conexão de até quatro computadores ao mesmo tempo. Na “Li-Fi” a lâmpada recebe um microchip capaz de emitir sinais com taxa de 150 Mbps e assim permite uma transmissão oito vezes mais rápida que a média de pico de conexão no Brasil, que atualmente apresenta uma taxa média de 18,7 Mbps.

Por outro lado, a tecnologia também traz limitações: qualquer objeto que bloqueie a luz irá interromper o sinal da Internet, e não será capaz de penetrar as paredes, como acontece com os sinais das ondas de rádio.

A expectativa é que esta nova tecnologia se propague rapidamente pelo mercado chinês devido ao seu baixo custo, além de fácil expansão num mercado interno onde diariamente cerca de 600 milhões de pessoas utilizam a internet.

A apresentação da “Li-Fi” para o público está agendada em novembro próximo na China International Industry Fair, em Xangai, e contribuirá para possíveis ajustes técnicos e melhorias.

YouTube disponibilizará modo “off-line” em dispositivos móveis

youtubeSegundo artigo publicado no blog do YouTube para criadores de conteúdo, os vídeos da sua plataforma poderão ser assistidos no modo “off-line” em dispositivos móveis a partir de novembro próximo, desta forma, poderão ser baixados para um tablet ou smartphone e assistidos posteriormente sem precisar estar conectado com a internet.

De acordo com a matéria do blog de tecnologia All Things Digital, os vídeos ficarão disponíveis para serem assistidos em até 48 horas após o download ter sido realizado.

O YouTube comenta que esse novo recurso trará para o usuário uma nova experiência ao visualizar os vídeos bem como os canais em dispositivos móveis.

Mesmo no modo “off-line”, os anúncios continuarão a ser exibidos junto aos vídeos. Com o mercado de anúncios crescendo de modo acelerado, onde dados divulgados pelo portal BI Intelligence, especializado em análise no setor de mobilidade, indicam que os vídeos on-line são responsáveis por US$ 520 milhões de gastos em publicidade nos Estados Unidos, há cerca de 13% do mercado de anúncios em vídeo digital durante o ano.

Desde o ano passado o YouTube já disponibiliza um aplicativo para o sistema Android que permite um pré-cache dos vídeos, assim é possível assistir vídeos “off-line” desde que esteja conectado à internet ao iniciar a transmissão, o que também deverá sofrer alterações.

Data de lançamento e maiores informações sobre essa atualização serão divulgados oficialmente em novembro, conforme anunciado pelo Google.

“.rio”, “.pizza”, “.final”, entre outros, serão liberados já neste ano

enderecos-internetA Icann, responsável por administrar os chamados domínios de topo genéricos, aprovou o último lote para novas terminações de endereços da internet, totalizando assim 1745 sufixos, que serão adicionados ao 22 já existentes tais como “.org” e “.net”.

Essa é uma das maiores mudanças realizadas na web até hoje. Isso significa que tanto pessoas físicas ou jurídicas poderão controlar esse tipo de domínio que até então era permitido apenas a organizações relacionadas à infraestrutura da internet e instituições governamentais.

Essas mudanças tornarão os endereços de sites na internet mais intuitivos, como por exemplo, “prefeitura.rio”,  “saopaulo.pizza” e “mpb.music”, contudo podem aumentar os problemas com fraudes, onde algumas terminações aprovadas foram indicadas pela Icann como sendo de alto risco: “.credit”, “.shop” e “.discount”.

Com a alegação de que as justificativas eram insuficientes para aprovação das novas terminações e consequentemente os novos sites poderiam causar dano à reputação das marcas e gerar custo alto, a Dell, HP e Samsung unidas a outras 84 empresas, tentaram impedir tais mudanças.

De acordo com Rob Hall, diretor da empresa canadense Momentous, que solicitou quatro terminações, a Icann cobra US$ 185 mil para analisar um pedido em que acrescidas as exigências técnicas e jurídicas, atinge uma gasto total para cada domínio em torno de US$ 700 mil. O custo da manutenção gira em torno de US$ 150 mil por ano.

“Não sabemos se todas serão exitosas [financeiramente], mas essa não deixa de ser uma boa oportunidade”, comenta Hall. Os seus pedidos incluem “.sucks”, considerada de alto risco, e “.rip”, que a ideia é ser usada em sites que homenageiam mortos.

Os sufixos aprovados que passaram para a fase de contratação estarão no ar até o fim de 2013 e começo de 2014, de acordo com uma ordem feita através de sorteio.

Empresas brasileiras como Bradesco, Itaú, Globo, Vivo, Ipiranga, Natura e UOL, como também o NIC.br, órgão que supervisiona a WEB no Brasil, fizeram o pedido de inclusão de: “.ltda”, “.final”, “.bom” e da prefeitura carioca ”.rio”.

E somente o Google solicitou 101 requisições como: “.web”, “.blog” e “.youtube”.

Rodrigo de la Parra, vice-presidente da Icann para América Latina, comenta que “É algo importante para a inovação. Dá às companhias oportunidades competitivas e, aos usuários, de identificação.”

Para Demi Getschko, diretor do NIC.br, os novos domínios são dispensáveis. Diz que “Ninguém nunca deixou de criar um site por não existir um sufixo que não fosse de seu gosto ou que não representasse sua ideologia. Isso acaba gerando ruídos e conflitos, como foi o caso da Amazon”, diz, citando o exemplo da terminação requerida pela varejista americana, que provocou protestos de países amazônicos, incluindo o Brasil, e por esse motivo o resultado de sua análise foi adiado.

Novo hábito no uso de laptops, smartphones e tablets: assistir TV

tvO ConsumerLab, setor da Ericsson responsável pelo estudo de comportamento do usuário, fez uma análise do perfil do usuário global em relação aos hábitos de assistir TV e vídeo. Cerca de 15 mil pessoas foram entrevistadas online em 15 mercados diferentes, incluindo o Brasil, revelando que 62% dos pesquisados acham que o hábito de assistir TV com horário determinado pelas operadoras não se adequa mais ao seu cotidiano.

De acordo com Júlia Casagrande, especialista da área de ConsumerLab da Ericsson no Brasil, “Isso demonstra que telespectadores de todas as idades estão adotando hábitos diferentes dos tradicionais: não estão mais restritos a ficar sentados à frente da televisão esperando o horário de seu programa favorito começar. Os consumidores estão cada vez mais usando novos serviços para conseguir assistir seus programas favoritos em seu tempo livre, seguindo sua própria agenda.”

De acordo com a pesquisa, houve um aumento de 59% no número de horas usadas semanalmente para ver TV e vídeo fora de casa através do laptop, um acréscimo de 1,4 para 2,2 horas. Nos tablets o aumento foi de 39% e smartphones 8%. O resultado da pesquisa revela também que 92% dos entrevistados assistem à televisão convencional em casa, sendo que 19% começam a assistir fora de casa e continuam a assistir quando retornam às suas residências.

Dos entrevistados brasileiros, 69% disseram que o computador e a internet fazem parte de seus hábitos assim como consumo de TV e vídeo. Segundo Júlia, “É como se eles entendessem isso como algo que já está enraizado em seu dia a dia. Além disso, a pesquisa também identificou uma demanda maior pelo chamado fenômeno multitela, já que 68% gostariam de ter acesso a todo o conteúdo de TV e vídeo em múltiplos dispositivos, o que significa poder assistir ao mesmo programa, por exemplo, em sua televisão, tablet e smartphone”.

A pesquisa foi baseada sob duas formas de amostragem: a quantitativa, que compreendeu de pessoas com conexão de banda larga de internet e que assistem qualquer tipo de conteúdo tanto de televisão como em vídeo pelo menos uma vez por semana, e a qualitativa, com pessoas que possuem vários dispositivos diferentes como laptop, smartphone e tablet com boa conexão de internet.

Usuários de Windows 8 ultrapassam os de Mac

windows-8De acordo com a StatCounter, empresa de pesquisa de mercado de buscadores, navegadores e sistemas operacionais,  o Windows 8  da Microsoft conseguiu superar o OS X da Apple em participação no mercado após 11 meses do lançamento.

O resultado da pesquisa revela que no mês de setembro passado houve uma participação de 7,46% do Windows 8, representando um aumento de 0,44% em relação ao mês de agosto, números esses que ultrapassaram o mercado do Mac que teve uma queda de 0,2% no mesmo período e ficou com 6,98%.

Os números mostram que apesar do aumento do Windows 8 versões anteriores seguem praticamente estáveis na participação do mercado e não estão desaparecendo. O Windows XP subiu 0,01% atingindo 20,59%, enquanto o Windows Vista teve um aumento de 0,09% com 5,3% e o Windows 7 teve uma queda de 0,03% passando para 51,98%.

Aplicando metodologia diferente, a consultoria NetMarketShare, concorrente da StatCounter, apresentou também resultados que o Windows 8 tinha ultrapassado o OS X em agosto e também em setembro.

E conforme ressaltou a NetMarketShare, a estratégia da Apple em cobrar 20 dólares pelo upgrade do sistema operacional mais recente conhecido como Moutain Lion vem dando certo, onde cerca da metade das pessoas que possuem Mac já passaram a utilizar esta nova versão OS X.

O que é o Big Data e para que serve

big-dataÉ grande o número de pessoas que já ouviu falar no Big Data, mas não tem ideia do que ele é, e para entender de que forma essa tecnologia esta mudando nossas vidas é preciso deixar os termos técnicos de lado e usar uma linguagem mais informal.

Como definição, o Big Data é a habilidade de capturar, armazenar e processar grandes quantidades de dados em busca de correlações, ou seja, é uma aventura de descobertas através do cruzamento de números, estatísticas e levantamento do comportamento do consumidor por trás do seu perfil, como tendências, modelos, entre outros, fundamental para a tomada de decisões, porém, nós não sabemos exatamente o que estamos procurando até encontrarmos resultados inesperados.

Para exemplificar, podemos citar uma empresa americana que realizou uma pesquisa para criar um método de prever os problemas que um carro usado poderá ter antes de comprá-lo no caso de um leilão, pois não é possível examinar o carro com detalhes antes de dar o lance embora estabelecer esse método possa gera alguma vantagem competitiva.

Estranhamente depois de cruzar um número imenso de informações e dados históricos, os cientistas que analisaram a pesquisa concluíram que os carros cor laranja são os que apresentam menor chance de apresentar problemas. Vale salientar que a pesquisa não procurava por carros especificamente cor laranja e sim por dados como: marca, modelo, ano, cor, preço, origem, fabricante, entre outros, e no resultado da análise dos dados encontraram uma correlação entre quantidade de problemas e a cor.

No final da pesquisa não houve efetivamente uma justificativa do motivo da cor estar associada aos critérios selecionados, mas o que foi demonstrado realmente é que nos Estados Unidos os carros cor laranja possuem 50% menos chance de apresentar problemas. Para quem busca o resultado pouco importa o porquê e sim o que fazer com as informações, as correlações detectadas nos números são fatos. Essa possibilidade se dá graças ao imenso suporte que temos disponível para coleta de dados, armazenamento e processamento.

Outro caso a exemplificar foi o surto de gripe causado pelo vírus H1N1 (influenza) em meados de 2008, onde os dados sobre onde e como o vírus se alastrava estavam sempre desatualizados devido ao fato do período de incubação se dar sempre em torno de duas semanas antes do paciente procurar ajuda e o caso ser registrado nos órgãos competentes que também demoravam em juntar os dados às estatísticas.  Nos Estados Unidos, o CDC, agência que regula o departamento de saúde, precisava dos dados muito antes para que pudesse tomar alguma providência com efeito preventivo.

Assim, a maioria das pessoas que tinha algum tipo de sintoma começou a recorrer ao Google para saber mais informações, foi então que os cientistas do Google cruzaram os dados das milhões de pesquisas realizadas semanas antes do H1N1 ser detectado em determinada região através de dados oficiais, em comparação com as pesquisas que estavam sendo realizadas naquele momento, e conseguiram gerar gráficos capazes de prever em tempo real de que forma o H1N1 estava se propagando. O resultado deste processo chegou a mostrar ser 90% eficiente, e hoje o mesmo está disponível gratuitamente a todos, não apenas para o influenza, mas também para outros tipos de doenças.

Casos exemplificados como estes ilustram a concepção do Big Data, que propõe também sua aplicação na área comercial possibilitando prever tendências de preços e compras, contudo é preciso tomar muito cuidado no que diz respeito à privacidade, pois devemos lembrar que há um aumento cada vez maior do número de pessoas que acessam a internet e as redes sociais, e consequentemente fica fácil monitorar e registrar comportamentos e hábitos de cada um a todo o momento.

15% das buscas por dia no Google são inéditas

pesquisa-googleEmbora tenha sido registrado oficialmente em 4 de setembro de 1998, o Google comemora seu aniversário no dia 27 de setembro, quando a empresa abriu as portas de seu primeiro escritório e colocou no ar sua ferramenta de busca que se tornou a mais popular da internet.

Hoje são cerca de 100 bilhões de consultas por mês, com uma média de 3 bilhões por dia, sendo que 15% delas nunca foram feitas, ou seja, são inéditas, e mais da metade são realizadas fora dos Estados Unidos. O desafio do Google é ser capaz de responder as buscas de forma cada vez mais natural antecipando as necessidades de informação.  Segundo o CEO e co-fundador do Google, Lary Page, ainda há muito a ser feito para transformá-la em “uma ferramenta de pesquisa que entende exatamente o que você quer e devolve exatamente o que você precisa”.

No Centro de Engenharia do Google na América Latina, em Belo Horizonte, que conta com 100 engenheiros, grande parte deles brasileiros, é realizado um trabalho integrado com outras equipes de desenvolvimento distribuídas pelo mundo com o objetivo de aprimorar o mecanismo da busca (baseado em algoritmos) procurando aumentar a relevância dos resultados. Assim, em 2012, a equipe avaliou 118,8 mil ideias de melhorias sobre o ranking para tornar os resultados das pesquisas mais relevantes e aparecerem nas primeiras posições das páginas das respostas, onde somente 665 mudanças foram incorporadas, com uma média de 2 por dia e todas apresentaram melhores resultados na busca com relação as já existentes.

O engenheiro de software sênior do Google, Bruno Augusto Vivas e Pôssas, diz que “para todas as consultas  executadas pela máquina de busca hoje, alguma mudança proposta e desenvolvida pelo time de BH está em uso. Se você pegar pelo menos um entre os dez primeiros resultados da busca, ele está naquela posição do ranking porque uma das mudanças lançadas aqui está sendo executada”, e complementa, “se a gente pegar o histórico de todas as mudanças lançadas, desde 1998, o time de BH é responsável pela segunda mudança mais importante de todos os tempos. E tem 5 entre as 30 alterações mais importantes. O que dá uma ideia do qual relevante é o trabalho que fazemos aqui desde 2005”. Segundo Berthier Ribeiro Neto, Diretor de Engenharia, “o desenvolvimento continuado do Google no Centro de Pesquisa de BH beira US$ 150 milhões”, boa parte para compor o salário dos pesquisadores.

O Google vem sendo questionado pelo governo brasileiro por ser a segunda empresa em receita publicitária no Brasil sem investimento local, por isso a divulgação do valor investido na unidade brasileira. De acordo com Paulo Bernardo, ministro das Comunicações, o governo quer estimular o Google a empregar o seu capital aqui no Brasil, sugerindo inclusive que aplique algumas de suas tecnologias já disponíveis, como os balões que são utilizados em prover acesso à internet e assim disponibilizar conexão de banda larga para a região Amazônica.

De acordo com Pôssas, nenhuma operação do mecanismo de busca do Google é manual, tudo gira em torna da alteração, criação e substituição de algoritmos. Nenhuma consulta possui privilégios em relação à outra. A intervenção manual refere-se a apenas de uma avaliação prévia da qualidade dos resultados depois do desenvolvimento de cada mudança sugerida, antes de acontecer o lançamento. E enfatiza que a ação no botão ‘mais um’ ainda não está sendo considerado como informação relevante para o algoritmo e não possui influência no resultado da busca.

As pesquisas do Google coletam dados de como os usuários estão interagindo com os resultados das buscas, e dessa forma avaliam se o resultado é melhor ou pior ao anterior para se basear nas decisões com relação às consultas geradas.

Berthier comenta que “os algoritmos não são cegos. Eles leem informações dadas pelos usuários, como links relacionados inseridos em páginas que dão uma noção de preferência por aqueles links, cliques em links, etc. Quando muitos usuários clicam no resultado três, o que eles estão dizendo para o algoritmo é que aquele resultado é mais relevante que os resultados um e dois”, e complementa, “quando você combina bilhões de pares de olhos dos usuários eles acabam funcionando como validadores do que está funcionando bem e do que não está funcionando bem”. Os mecanismos de busca funcionam de forma adequada para buscas frequentes, contudo a complexidade aumenta no momento de se fazer buscas que são pouco pesquisadas.

Ainda de acordo com Berthier, “de maneira nenhuma o algoritmo privilegia resultado nenhum na busca orgânica”. Conforme o aprendizado dos algoritmos o resultado pode mudar. Os mais repetitivos e algumas vezes os mais frequentes, serão mais bem ordenados. As melhorias agem de acordo com as necessidades da informação sem receber influência na forma como o usuário realiza a busca, a menos que ele esteja logado em sua conta Google com opção pelo uso do histórico. O Google pretende que a busca anônima receba resultados diretos independente da forma como a consulta foi realizada.

Usuários do Windows 7 já podem baixar prévia do navegador Microsoft Internet Explorer 11

explorer11Ainda em fase de preview, a Microsoft disponibilizou para baixar o navegador Internet Explorer 11 trazendo novas características aos usuários que utilizam o Windows 7, com o intuito de retomar um lugar de destaque no mercado competindo com o Google Chrome e Mozilla Firefox.

As novidades estão relacionadas ao desempenho e a velocidade, que segundo a Microsoft, o novo Internet Explorer (IE) é até 30% mais rápido que os concorrentes com base no sistema operacional Windows 7, além das novas ferramentas para execução de Javascript e suporte ao padrão WebGL para desenvolvedores.

O gerente de marketing do IE Roger Capriotti foi quem divulgou a novidade no blog oficial do Windows, comentando que a versão preview do IE dará uma boa noção de como será o programa que chega ainda neste ano aos PCs com Windows 7 e possivelmente para o lançamento do Windows 8.1.

Sandeep Singhal e Rob Mauceri, gerentes de programas do navegador, em publicação no blog do site oficial do IE, comentaram sobre as funções que serão utilizadas pelos usuários do Windows 7, destacando que o motor Chakra de JavaScript garante melhor desempenho, compatibilidade e segurança, e concluem: “No Windows 7, o IE11 Release Preview é 9% mais rápido do que o IE 10. Ou seja, uma evolução de 5% em relação à versão Developer Preview (lançada no meio deste ano para desenvolvedores), e a diferença é de mais de 30% para o nosso principal concorrente”.

Só no 1º semestre de 2013, ataques de malware no Brasil já atingem cerca de 30 milhões

ataque-malwareSegundo o relatório de estudo divulgado pela Kaspersky, empresa de segurança, o Brasil encontra-se na 35ª posição no ranking mundial e líder em infecções por ameaça na internet entre os países da América Latina estando perto de atingir 30 milhões de incidentes somente neste ano, onde estima-se que cerca de 35,6% dos usuários brasileiros, só no primeiro trimestre de 2013, já foram infectados.

Na lista dos países da América Latina seguem Panamá, Peru, Honduras, México e Argentina, que apresentam o malware Worm.Win32.Debris.a como o mais comum, que apesar de não ser tão popular no Brasil causa muitos problemas nos outros países.

E o Net-Worm.Win32.Kido.ih, descoberto desde 2009, continua se aproveitando das falhas de segurança no Windows bem como do meio utilizado de dispositivos USB.

De forma comparativa, a conclusão da Kaspersky demonstra a representatividade das ameaças com resultados praticamente na mesma proporção, e assim não define qual é a liderança entre elas.

Veja a distribuição dos 10 malwares mais relevantes na América Latina segundo Kaspersky:

karspersky