Deep web: el universo paralelo de Internet
Se suele decir que únicamente consumimos de forma abierta el 4% del contenido que alberga Internet, quedando un 96% soterrado.
Esta quinta entrada corresponde a un tema que quizás por desconocido para mi, me apasiona.....
Llevo algún tiempo investigando la forma de acceder a los contenidos, páginas, etc.... de la web profunda, voy por tanto a contaros un poco las conclusiones que voy sacando.
Cuando se dice que en Internet hay de todo, es que hay de todo. Otra cosa es que esta información sea más o menos visible, ya que la red de redes tiene un lado oculto y poco conocido, que la divide en dos partes claramente diferenciadas: la superficial y la profunda.
¿QUÉ ES LA DEEP WEB ?
Esta puerta de entrada la cruzan cada día miles de personas para adentrarse en un mundo donde cohabitan la información clasificada, las páginas olvidadas y hasta actividades delictivas, datos que no pueden ser encontrados fácilmente por los motores de búsqueda comunes, como Google o Yahoo: ya que este tipo de contenido no está en páginas indexadas.
Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la «Internet profunda» se reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran indexar la información de la Internet profunda esto no significaría que esta dejará de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y solo determinados usuarios, aquellos con contraseña o códigos especiales, pueden hacerlo.
La Internet superficial se compone de páginas estáticas o fijas, mientras que la web profunda está compuesta de páginas dinámicas. La páginas estáticas no dependen de una base de datos para desplegar su contenido sino que residen en un servidor en espera de ser recuperadas, y son básicamente archivos HTML cuyo contenido nunca cambia.

Métodos de profundización
El contenido que existe dentro de la Internet profunda es en muy raras ocasiones mostrado como resultado en los motores de búsqueda, ya que las «arañas» no rastrean bases de datos ni los extraen. Las arañas no pueden tener acceso a páginas protegidas con contraseñas, algunos desarrolladores que no desean que sus páginas sean encontradas insertan etiquetas especiales en el código para evitar que sea indexada. Las «arañas» son incapaces de mostrar páginas que no estén creadas en lenguaje HTML, ni tampoco puede leer enlaces que incluyen un signo de interrogación.

Actualmente subsiste como TOR Project, una organización sin ánimo de lucro galardonada en 2011 por la Free Software Foundation por permitir que millones de personas en el mundo tengan libertad de acceso y expresión en Internet manteniendo su privacidad y anonimato, se realiza a través del programa TOR (The Onion Router, según sus siglas en inglés).
Así que los usuarios de TOR pueden seguir buceando tranquilamente por la Deep Web, que representa el 80% de Internet, 500 veces mayor que la red superficial, tal y como sugiere un estudio realizado por la Universidad de California en Berkeley (EE.UU.).
Cuando se ejecuta el software de Tor, para acceder a la Internet profunda, los datos de la computadora se cifran en capas. El software envía los datos a través de una red de enlaces a otros equipos ―llamados en inglés «relays» (‘nodos’)― y lo va retransmitiendo quitando una capa antes de retransmitirlo de nuevo, esta trayectoria cambia con frecuencia.
Wikileaks es otro caso emblemático de uno de los usos de la Deep Web. En sus inicios, y durante mucho tiempo, el sitio de liberación de información operó en un ecosistema Deep Web, antes que se hiciera público. Incluso ahora, para quién desee hacer una denuncia de algún tipo de posible delito, o información a Wikileaks puede hacerlo publicando en la Deep Web.
-Facebook ayuda al proyecto Tor a obtener reconocimiento oficial para los sitios ocultos .onion
Cuando se ejecuta el software de Tor, para acceder a la Internet profunda, los datos de la computadora se cifran en capas. El software envía los datos a través de una red de enlaces a otros equipos ―llamados en inglés «relays» (‘nodos’)― y lo va retransmitiendo quitando una capa antes de retransmitirlo de nuevo, esta trayectoria cambia con frecuencia.
Wikileaks es otro caso emblemático de uno de los usos de la Deep Web. En sus inicios, y durante mucho tiempo, el sitio de liberación de información operó en un ecosistema Deep Web, antes que se hiciera público. Incluso ahora, para quién desee hacer una denuncia de algún tipo de posible delito, o información a Wikileaks puede hacerlo publicando en la Deep Web.
-Facebook ayuda al proyecto Tor a obtener reconocimiento oficial para los sitios ocultos .onion
0 comments:
Publicar un comentario