Operadoras prometem redes IPv6 em 2015

2015 tem tudo para ser o ano do IPv6 no Brasil. Mantidos os compromissos, até o fim do próximo ano a migração para o novo sistema de endereçamento na Internet vai avançar sensivelmente. O mais importante deles é a garantia das operadoras de que, ao menos nos grandes centros, as redes estarão prontas.

 

 

“A partir de julho de 2015, todas as operadoras passam a oferecer IPv6 nativo aos novos usuários nos principais centros”, afirma o diretor do sindicato nacional das empresas de telecomunicações, Sinditelebrasil, Alexander Castro. O compromisso faz parte de uma costura que envolve a Anatel e o CGI.br.
Até aqui, a migração para a versão 6 do protocolo Internet avançou pouco no mundo inteiro – com raras exceções. Dados da Akamai e do Google sugerem que a transição está ganhando momento, mas há um longo caminho pela frente. No geral, foi neste outubro que se cruzou a marca de 5% do tráfego da rede em IPv6.
O Brasil está longe disso, com cerca de 0,08% do tráfego na nova versão do protocolo IP. E embora o compromisso das teles – principais provedores de conexão no país – seja alvissareiro, os internautas daqui ainda deverão conviver algum tempo com gambiarras no sistema.
“Estamos há dois anos discutindo soluções para o esgotamento dos endereços IPv4. As empresas até gostariam que o prazo fosse antecipado, mas a mudança envolve todo o ecossistema, não apenas as teles. Depende dos equipamentos e terminais, no lado dos usuários, e da preparação dos provedores de aplicação. É um problema de todos”, diz Castro.
Nessas duas pontas há sinais de movimento, embora ainda não seja possível garantir que estarão tão preparadas como se promete para as redes. No caso dos equipamentos e terminais, o principal empurrão veio recentemente, com uma decisão da Anatel de fixar datas a partir das quais serão certificados apenas aqueles compatíveis com o IPv6 (leia aqui).
A medida, no entanto, talvez seja insuficiente. É que o ato da agência que exige “suporte ao protocolo IPv6 nos produtos para telecomunicações” não faz menção a comercialização de produtos já certificados. Sem vedação expressa, pode ser que os fornecedores de modems, wi-fi e congêneres ainda possam descarregar no mercado produtos configurados para IPv4 durante algum tempo.
No lado dos conteúdos, provedores populares estão prontos – seja Google, Facebook ou brasileiros como Uol e Terra. O mesmo não se vê em outras aplicações importantes, como bancos e nos serviços de Estado. Nessa seara, o governo federal fez um sinal importante ao apresentar um plano de migração total dos sistemas da administração até 2018 (leia aqui). Mas isso é apenas no Executivo federal. No Legislativo e Judiciário não há sinais perceptíveis.

Brasil precisa correr para não não perder a vez na Internet das Coisas

O ritmo lento de adesão das redes brasileiras ao novo protocolo da Internet – o IPv.6 poderá pesar no bolso delas próprias. O Gartner prevê que, até 2020, as corporações vão gastar US$ 40 bilhões no mundo projetando, implementando e operadora a Internet das Coisas. A consultoria projeta ainda que, em cinco anos, as principais empresas terão mais de meio milhão de objetos enderaçáveis IP. “O Brasil precisa andar com o IPv.6. Não pode perder esse momento. A mudança se faz necessária e rápido”, adverte o vice-presidente da Consultoria, Cassio Dreyfuss.

De acordo ainda com o Gartner, os sensores responderão por 30 bilhões de objetos conectados nos próximos cinco anos. “Esse é um mercado em franca expansão”, sustenta o especialista. Durante o Gartner Symposium Expo, que acontece essa semana, em São Paulo, Betsy Burton, vice-presidente da consultoria, mandou um duro recado aos gestores de Tecnologia da Informação.

“Não há mais bite e byte. Não é mais a melhor arquitetura. Há a necessidade de pensar o negócio. A tsunami de dados é realidade, mas o CIO será aquele que vai saber identificar qual dado é relevante ou não. Há dados para serem tratados e há dados para não serem tratados. Esse profissional que está aparecendo vai determinar o sucesso do negócio da corporação”, frisou a especialista.

Com relação à Internet das Coisas, Dreyfuss admite que há muita projeção, mas diz que a competitividade global impõe ao Brasil ficar no ritmo dos demais países do mundo. “É pensar globalmente ou ficar fora do mercado. O IPv.6 é crucial para a conexão desses novos objetos”, completou. Ainda segundo o Gartner, a Internet das Coisas vai causar uma ‘tensão política’ entre operações, desenvolvimento de produtos e TI. “Essas áreas estão paradas no tempo. Precisam correr e buscar novos caminhos. O IoT está chegando e não há mais como voltar atrás”, completou.

Fonte: http://convergenciadigital.uol.com.br
Autor: Ana Paula Lobo

Tecnologia pode melhorar conexão da internet com aparelhos

Especialista explica o que é o HyperCat, novo padrão de compartilhamento da Internet das Coisas

Homem usa notebook na feira de tecnologia IFA, em BerlimApesar da ascensão da chamada Internet das Coisas, ainda não dá para dizer que exista um padrão de comunicação que conecte todos os aparelhos.
Há alguns implantados, é claro, e o DLNA é talvez o que chega mais perto de integrar uma boa variedade de dispositivos.
Mas para tentar unificar tudo de vez, um novo consórcio de 40 empresas – que junta nomes do porte da ARM e da IBM – tenta emplacar um novo padrão, apelidado de HyperCat e apoiado por universidades e pelo governo do Reino Unido.
De forma resumida, a nova especificação pretende fazer com que diferentes aparelhos reconheçam uns aos outros. Com isso, eles podem procurar por metadados uns nos outros “usando padrões como HTTPS, Restful APIs e JSON como formatos de dados”, como descreveu o jornal inglês The Register
O projeto é visto pela empresa Flexeye (que lidera o consórcio de companhias) como o possível responsável por “liberar todo o potencial da Internet das Coisas ao criar uma world wide web [WWW] para máquinas”, segundo declaração dada à publicação.
Parece exagero, mas a afirmação não deixa de ter sentido.
Conforme explicou o TechRadar (TR), essa padronização proposta facilitaria a interoperabilidade, “o que significa que semáforos poderiam, em teoria, se comunicar automaticamente com sensores de estacionamento em vez de ficar limitados a outros semáforos”.
É algo que poderia tornar o trânsito melhor e apenas uma das possibilidades. “Muitos sistemas estão começando a disponibilizar dados”, disse ao TR Justin Anderson, CEO da Flexeye. “O desafio é fazer com qualquer um que queira acessar e ler esses dados consiga entendê-los.”
Enfim, para falar um pouco mais sobre o HyperCat, conversamos com William Lumpkins, membro sênior do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) e presidente da IEEE Consumer Electronics Society Standards.
O especialista deu alguns detalhes sobre a especificação e explicou as dificuldades e a importância da implementação de um padrão do tipo. Confira a entrevista a seguir.
O que é o HyperCat e qual o maior desafio encontrado para criá-lo? E o que ele traz de diferente para padrões já existentes?
O HyperCat é um padrão baseado em JSON e URI similar ao UPnP ou DLNA.
Ele ainda está engatinhando, e o grande desafio é fazer com que os maiores fabricantes o utilizem no software de suas plataformas, como TVs, dispositivos móveis, sistemas de segurança doméstico e iluminação, por exemplo.
[Quanto a vantagens], eu diria que há menos sobrecarga no HyperCat, permitindo assim que ele seja menor do que outros padrões.
A colaboração responsável pelo HyperCat envolve em maioria companhias de tecnologia do Reino Unido. Há planos de englobar marcas de outros países?
O IEEE e a Consumer Electronics Association (CEA) têm iniciativas que concorrem no campo de padrões de Internet das Coisas (IdC).
Apesar disso, é bem possível que, com o desenvolvimento do HyperCat, ele sirva como referência para padrões estabelecidos tanto pelo IEEE quanto pelo CEA e seus associados.
Dispositivos mais antigos serão compatíveis de alguma forma com a nova especificação?
Sim e não. Ou melhor, talvez. Lembre-se de que o padrão ainda está engatinhando, então isso não foi nivelado totalmente.
Mas como o padrão apenas referencia URIs, algo que ocorre em vários outros padrões de Internet das Coisas, é bem possível que dispositivos mais antigos que seguem especificações similares funcionem – ou só exijam modificações menores para isso.
Ainda no tema, como empresas como Apple, Microsoft e tantas outras que já investiram nos próprios padrões podem ser convencidas a adotar o HyperCat?
No caso específico da Apple, que não gosta muito de padrões aceitos pelo resto do mundo, não a vejo seguindo o HyperCat – a menos que mais de 75% de todos os produtos o esteja utilizando e empresa sinta que precisa dar suporte para se manter competitiva.
A Microsoft, por sua vez, já está perto disso, visto que o novo padrão é muito similar ao UPnP e seria fácil modificar a implementação.
A verdadeira questão aqui é se o HyperCat vai conseguir angariar desenvolvedores de produtos suficientes para despertar o interesse da Microsoft.
Isso porque, na maioria das vezes, padrões como este novo e o DLNA primeiro se certificam de que foram aceitos por empresas grandes antes de se lançarem de vez no mercado.
Mas há um desafio que qualquer padrão enfrenta para isso: a maior parte dos competidores no mercado está tentando se assegurar de que a “propriedade intelectual” de seus próprios produtos está representada de alguma forma, caso o padrão decole.
E finalmente, quais os benefícios que essa padronização pode trazer?
Eis um tópico enorme, sobre o qual escrevi um artigo para a IEEE Consumer Electronics Magazine, chamado “Padrões: Qual o lugar deles no mercado de consumo?” [disponível aqui, em inglês].
Basicamente, a padronização torna menos difícil para o consumidor integrar todos os seus outros dispositivos. Uma das máximas no mercado é a de que o produto que custa mais tende a ser o mais culpado por não funcionar integrado a outros produtos.
Por exemplo: uma pessoa compra uma televisão de quase 5.000 reais e tenta, sem sucesso, conectá-la ao termostato de 230 reais. Ele provavelmente entrará em contato com a fabricante da TV para reclamar que ele não está funcionando direito.
A empresa, então, tentará explicar que o problema é o termostato, mas o cliente vai continuar exigindo que a TV funcione.
Se ambas as empresas seguissem o mesmo padrão de comunicação da Internet das Coisas em seus produtos, com certo nível de interoperabilidade, então esses tipos de problemas seriam minimizados – e os pedidos de reparos para ambos os lados seriam virtualmente eliminados.
Ou seja, as duas marcas manteriam sua reputação (o que ajuda nas vendas) e conseguiriam mais lucro. O cliente ainda ficaria satisfeito e o ecossistema cresceria.

Fonte: ABFDigital.blogspot.com.br4

Mapa mostra onde e quando a Internet “Dorme”

O Instituto de Ciências da Informação, da Universidade do Sul da Califórnia, conseguiu medir ciclos de atividade na rede mundial de computadores, apresentando um mapa animado onde a passagem do tempo demonstra que há várias partes no planeta onde a Internet “dorme”.

O mapa é parte de um trabalho que buscou correlacionar “redes diurnas com fatores externos” e, na prática, mostra as imensas diferenças socioeconômicas entre o mundo próspero e “sempre online” e as várias porções do globo onde parece que a Internet é “desligada” à noite.

O vídeo mostra 35 dias de atividade em 3,7 milhões de endereços IP – há cerca de 4 bilhões existentes – e dá uma ideia do ciclo circadiano na rede. As variações de cores vão do azul, até 20% de queda no uso, ao vermelho (alta de até 10% no uso). O branco é para a média, considerada a utilização corriqueira.

“Quando vemos o uso de endereços com o passar do tempo, vemos que algumas partes do globo têm variações diárias. Na China, Índia, leste da Europa e boa parte da América do Sul a Internet  dorme”, descreve no blog do Projeto ANT (Análise de Tráfego de Rede) John Heidemann, um dos autores do estudo, ao lado de Lin Quan e Yuri Pradkin.

“Entender quando a Internet dorme é importante para entender como diferentes políticas de rede em cada país afetam o uso, é parte da detecção de ‘apagões’ e uma forma de melhorar nossa meta de longo prazo de entender exatamente quão grande a Internet é”, afirma. O endereço é http://www.isi.edu/ant/diurnal/.

Assista ao video: https://www.youtube.com/watch?v=_ZIDM7JdO_8

A bolha invisível (e prejudicial) das redes

internet-flowchart-explains-why-you-never-get-anything-done-comic-6f0b552934

Eli Parisier foi um dos fundadores da Avaaz, um dos mais conhecidos site de petições online no mundo, e diretor executivo do MoveOn, portal de ativismo e política nos Estados Unidos. Mas está aqui por conta de ter escrito um livro que vem bem a calhar nesses tempos: “O Filtro Invisível“, editado no Brasil em 212 pela editora Zahar. Além de transformar o autor num dos palestrantes mais populares do mundo da tecnologia, o livro provocou um debate intenso nas redes sociais e inspirou pequenas mudanças no sistema de buscas do Google. Mas do que se trata?

“O filtro” defende a tese de que com a crescente utilização de algoritmos para personalização, a internet está se enclausurando em “bolhas” de interesse individual. Quando deixamos de seguir alguém que discordamos frontalmente, ou “curtimos” mais posts de determinadas pessoas, para ficar no exemplo do Facebook, os cálculos do algoritmo da rede passam a mostrar mais ainda estes conteúdos/pessoas, “escondendo” aquilo (ou aqueles) que discordamos. Isso se dá principalmente por questões de mercado: quanto mais souber dos produtos, serviços e interesses de seus usuários – em suma, quanto mais personalizada for a informação – mais estas redes vão vender anúncios. Consequentemente, maior será a chance de compra dos produtos oferecidos. E assim a roda gira pra todos: as grandes empresas digitais (sobretudo Google e Facebook) ganham mais dinheiro com os anúncios, os patrocinadores vendem mais seus produtos, e os usuários ganham a chance de encontrar (e consumir) produtos mais próximos de seus interesses.

Outro exemplo: se estamos logados no navegador Google Chrome, nossas buscam no Google nos direcionam para assuntos que temos mais interesse, e assim conseguimos acionar conteúdos de maneira mais rápida – afinal, o Google sabe o que você costuma procurar na internet porque tem acesso ao seu histórico e por que dá prioridade ao que nossos amigos no Google + (a rede do Google que, se você tem um Gmail, está nela, sabendo ou não disso) estão compartilhando. Se 300 de nossos amigos curtem uma página no Facebook, essa página tem mais possibilidade de ter um anúncio na sua timeline do que aquela que nenhum amigo curte. É o predomínio da personalização sobre a diversidade: ficamos preso na bolha dos nossos amigos, ou daqueles que compartilham de uma mesma ideologia de vida e um mesmo direcionamento político/estético.

Lembrei do livro de Parisier já na noite do último domingo, quando a ressaca da “festa de democracia” começou a bater nas minhas redes (sobretudo Facebook e Twitter). Depois das 19h30, uma onda estupefata de posts surgiram, boa parte deles se perguntando: “mas são estes os vencedores das eleições? na minha timeline eles jamais ganhariam um voto sequer!” Nomes como Jair Bolsonaro, Luis Carlos Heinze, Marco Feliciano, Celso Russomano – todos com casos conhecidos de preconceitos contra minorias e, por conta disso, execrado pela timeline dos meus amigos – estiveram entre os mais votados entre os candidatos a deputados federais no Rio de Janeiro, Rio Grande do Sul e São Paulo, respectivamente. Como explicar? É a bolha.

Pablo Ortellado, professor da USP e filósofo dos mais ativos na rede, clareou a questãoem um comentário no Facebook: “Nos habituamos muito rapidamente a essa nova realidade social: a divergência intransponível. A lógica das redes sociais já é a da interação entre comunidades homogêneas — e mesmo neste ambiente desprovido de pluralidade, encontramos grande dificuldade em nos engajar em interações com os divergentes”. Se já não conseguíamos dialogar racionalmente com o do “outro lado” numa discussão na rua, imagina agora, que as redes sociais e seus algoritmos tem potencializado ainda mais nossa falta de capacidade de entender e argumentar politicamente ao nos relegar a “filtros invisíveis” onde todos concordam conosco, compartilham das mesmas ideias, candidatos e experiências.

O resultado desse comportamento foi mostrado na urna e causou a surpresa de muitos: um aumento de militares, religiosos, ruralistas e outros segmentos conservadores entre os candidatos eleitos, fazendo com que o Congresso eleito em 2014 seja o mais conservador desde 1964, segundo a análise do Departamento Intersindical de Assessoria Parlamentar (Diap) em matéria publicada no Estadão. Candidatos que, por demonstrarem abertamente seu preconceito e muitas vezes não conseguirem promover o diálogo de ideias sobre alguns assuntos, foram limados do debate em certas “bolhas” progressistas – da qual a deste escriba se inclui – que defendem a legalização do aborto, as causas LGBT e a descriminalização das drogas.

Seria falta de persistência dos que defendem estas causas em argumentar com o outro lado? Ou será que tendo persistência (e paciência) para debater estas causas não estaria dando ainda mais visibilidade midiática a posições extremistas, fazendo estes deputados demarcarem sua posição preconceituosa também porque assim aparecem mais? Como disse o professor e jornalista Nilso Lage: “Exposição pública significa notoriedade. Responder a imbecilidades como se fosse coisa séria é perda de tempo”. Mas como desmistificar um assunto, por mais “imbecil” que seja, se não debatê-lo e torná-lo assunto cotidiano, de “mesa de bar”, conversa de ônibus, do corredor da “firma”?

Por ora não há respostas, só (muitas) perguntas. As explicações pra essa retomada conservadora do Congresso vão render muita conversa nos próximos meses e anos, e ainda vão depender do 2º turno, sobretudo o da disputa presidencial. Aguardemos, de preferência fora das bolhas.

*texto publicado também no site do jornalista Claudemir Pereira, com ligeiras alterações.

Fonte: BrasilPost.com.br

Por: Leonardo Foletto

Next Page →