14/03/2015

Deep Web


Deep Web (também chamada de Deepnet, Web Invisível, Undernet ou Web oculta) se refere ao conteúdo da World Wide Web que não faz parte da Surface Web, a qual é indexada pelos mecanismos de busca padrão.
Não deve ser confundida com a Dark Internet, que está relacionada à porção da Internet que não pode ser acessada ou que se tornou inacessível por meios convencionais. Também não se confunde com a Darknet, que não é uma simples rede de compartilhamento de arquivos, mas uma rede subjacente ou em camadas, onde existem grandes esforços no sentido de se manterem anônimos os dados de seus utilizadores.
Mike Bergman, fundador da BrightPlanet e autor da expressão, afirmou que a busca na Internet atualmente pode ser comparada com o arrastar de uma rede na superfície do oceano: pode-se pescar um peixe grande, mas há uma grande quantidade de informação que está no fundo, e, portanto, faltando. A maior parte da informação da Web está enterrada profundamente em sites gerados dinamicamente, a qual não é encontrada pelos mecanismos de busca padrão. Estes não conseguem "enxergar" ou obter o conteúdo na Deep Web - aquelas páginas não existem até serem criadas dinamicamente como resultado de uma busca específica. A Deep Web possui um tamanho muito superior ao da Surface Web.
O risco da Deep Web é, basicamente, a intenção com que o usuário a acessa. Por conter páginas com conteúdo ilegal, as mesmas podem conter vírus, prejudicando a segurança do computador. Vale lembrar que ela também, por ser criptografada e anônima, é muito usada por criminosos.
Entretanto, não é por um simples acaso que o termo rende críticas. Por não passar de um rótulo, carece de substância capaz de formar uma existência. Uma abstração sobre parcela de volume de danos da internet não constitui informação subsistente para materializar um conteúdo de significado elementar, representando tão-somente uma atribuição adjetiva.
Justamente no que se refere ao tamanho, não há dúvidas de que a grande massa de dados na internet se relaciona com interesses bem populares, como se manifesta informado pelos mecanismos de busca. No Brasil, o termo mais pesquisado em 2014 corresponde a programa de TV. No topo, também figuram novelas, futebol e perguntas relativas a beijar bem.
A Deep Web não passa de uma lenda urbana e a analogia de um iceberg está verdadeiramente distorcida, uma vez que o volume significativo de dados na internet, independentemente de privações de acesso, corresponde a interesses populares, funcionamento da internet e de outros serviços de utilidade pública que condicionam o seu uso mediante acesso à rede, além de conteúdo domínio científico, artístico, publicidade e afins, citados apenas por ilustração.


Tamanho

Estimativas baseadas em extrapolações de um estudo feito na Universidade da Califórnia em Berkeley em 2013 especularam que a Deep Web possui 7.500 terabytes de informação. Estimativas feitas por He et al. em 2004 detectaram cerca de 300.000 sites da deep web e, de acordo com Shestakov, cerca de 14.000 destes eram da parte russa da Web em 2006. Em 2008, a web chamada “Deep Web”, não referenciada pelos motores de busca representa 70 a 75% do total, ou seja, cerca de um trilhão de páginas não indexadas.


Nomenclatura

Para referir-se aos websites que não estavam registrados em nenhum mecanismo de busca, Bergman citou um artigo de janeiro de 1996 por Frank Garcia, no qual ele afirma que estes: "Seriam sites projetados propositalmente, mas que não se teve o interesse de registrá-lo em nenhum mecanismo de busca. Então, ninguém pode encontrá-los! Estão escondidos. Eu os chamo de Web Invisível."
Outro uso antigo do termo Web Invisível foi feito por Bruce Mount e Matthew B. Koll do Personal Library Software, descrevendo a ferramenta da deep Web "@1", na edição de dezembro de 1996.
O primeiro uso do termo específico deep web, agora reconhecido, ocorreu no estudo de 2001 de Bergman, mencionado anteriormente.


Classificação

O Wikileaks começou na deep web, logo depois seu conteúdo foi disponibilizado na surface web.
O conteúdo da deep web pode ser classificado em uma ou mais das seguintes categorias:
Conteúdo dinâmico: páginas dinâmicas que são retornadas em resposta a uma requisição ou através de um formulário.
Conteúdo isolado: páginas que não possuem referências ou ligações vindas de outras páginas, o que impede o acesso ao seu conteúdo através de web crawlers. Diz-se que essas páginas não possuem backlinks.
Web privada: sites que exigem um registro e um login (conteúdo protegido por senha).
Web contextual: páginas cujo conteúdo varia de acordo com o contexto de acesso (por exemplo, IP do cliente ou sequência de navegação anterior). Muitos sites estão escondidos e não há possibilidade de acesso, propositalmente.
Conteúdo de acesso limitado: sites que limitam o acesso às suas páginas de modo técnico (usando CAPTCHAs por exemplo).
Conteúdo de scripts: páginas que são acessíveis apenas por links gerados por JavaScript, assim como o conteúdo baixado dinamicamente através de aplicações em Flash ou Ajax.
Conteúdo não-HTML/texto: conteúdo textual codificado em arquivos multimídia (imagem ou vídeo) ou formatos de arquivo específicos que não são manipulados pelos motores de busca.
Conteúdo que utiliza o protocolo Gopher ou hospedado em servidores FTP, por exemplo, não é indexado pela maioria dos mecanismos de busca. O Google, por exemplo, não indexa páginas fora dos protocolos HTTP ou HTTPS.

Nenhum comentário:

Postar um comentário

Obrigado, o Superficção responderá em breve.

Blogs

Postagens Populares

Entre em Forma