"Lo poco que he aprendido carece de valor, comparado con lo que ignoro y no desespero en aprender" Descartes

miércoles, 4 de noviembre de 2015

INTERMEDIARIOS CRÍTICOS DEL CONOCIMIENTO

Esta es la última entrada de este estupendo curso, creo que seguiré añadiendo entradas, pues como ya he manifestado anteriormente está resultando una experiencia extraordinaria. 

La curación de contenido suena extraña, como algo alienígena, pero nada más lejos de la realidad, pues se trata de una de las actividades más sencillas que llevamos a cabo en el mundo 2.0.

La primera entrada del blog era la Infoxicación, pues la práctica para luchar contra la Infoxicación es la Curación de Contenidos.


Se trata de una nueva tendencia que ha surgido en el seno de las estrategias de marketing de contenidos que las empresas han incorporado, recientemente, a sus planes de marketing 2.0, para cubrir las necesidades que algunos buscadores de contenido en Internet, tales como Google, les han ido imponiendo, con el fin, de hacer que la información que aportan los sitios web, vaya adquiriendo valor por sus contenidos, de forma que los usuarios adquieran experiencias de máxima calidad mientras "navegan" por Internet, en su incesante búsqueda de información.

La curación de contenidos es una competencia que todos deberíamos desarrollar.Todos somos curadores de contenidos. Diariamente, cuando leemos información que nos parece relevante, inmediatamente la compartimos con algún contacto que creemos que le puede interesar o bien, en las redes sociales. 

Pero como he expresado antes, el curador de contenidos es mucho más que "compartir", "retwittear" o "copiar y pegar". El proceso de elaboración, exige de nosotros un análisis previo para poder valorar esa unidad de información. 
La crítica, la valoración y nuestra opinión, forman parte enriquecedora de nuestra curación de contenidos.

Existen en la actualidad numerosas herramientas que facilitan la curación de contenidos y que ponen esta disciplina a disposición de cualquiera que tenga interés en ponerla en práctica. Normalmente es una práctica muy extendida dentro del mundo empresarial, si bien, cada día mas, usuarios de Internet, utilizan esta técnica para hacer un uso de la información más eficiente.

  • Symbaloo organiza todos tus contenidos online de una manera fácil para navegar por Internet
  • Pinterest permite la creación de tableros sobre temas específicos. A estos tableros se pueden ir incorporando todo tipo de imágenes, vídeos, denominados pines que enlazan con la URL y una imagen.
  • Scoop.it es una herramienta para reunir información, mostrarla y compartirla en Internet. También en al ámbito educativo se está utilizando el término curación de contenidos, para hacer referencia a la tarea de: buscar fuentes de información confiables, filtrarlas y difundirlas. Podemos usar este recurso en las clases para exponer trabajos de los alumnos sobre un tema en diversos formatos.
Como ejemplo de curación de contenido he realizado una pequeña muestra en Scoop.it
http://www.scoop.it/t/curación-de-contenidos-by-marisol-6

Saludos!!!!!

Enlaces de interés
http://papelesdeinteligencia.com/curación-de-contenidos/
https://thisisohmynews.wordpress.com/2015/08/21/que-es-la-curacion-de-contenidos-y-para-que-sirve/
https://es.wikipedia.org/wiki/Curaci%C3%B3n_de_contenidos



¿CÓMO PREGUNTARLE A INTERNET?

 “SI BUSCAS RESULTADOS DISTINTOS, NO HAGAS SIEMPRE LO MISMO” Albert Einstein


En esta quinta entrada...(quien lo diría yo escribiendo algo para ser leído por otros, y la verdad, es que me está gustando muchísimo), me dejo de rollos y voy al tema que se nos pide desarrollar.... En el “arte de buscar”, se debe aprender a preguntarle a Internet, (lo hemos ido viendo en las entradas anteriores),  a detallar aquello que se desea encontrar con la mayor precisión posible.

Ya sabemos que en Internet es fácil extraviarse: La web parece invitar a que naveguemos por ella saltando mediante los hipervínculos (links) de página en página, como si hiciéramos surf. 
A veces saltamos tanto que nos desorientamos, o perdemos el tiempo sin conseguir frutos relevantes. Perdemos la página inicial de la búsqueda, olvidamos las páginas interesantes que hemos recorrido, o al final nos conformamos con lo menos valioso. Parece que navegamos casi al azar, sin rumbo definido, “clickeando” compulsivamente.
Lo más importante en una buena búsqueda es LA PREGUNTA que nos hacemos,hasta ahora hemos realizado búsqueda por palabras claves, buscadores, directorios, guías, tutoriales y algunos software especializado), etc.... Para el desarrollo de esta actividad, voy a utilizar Google Académico.

Google Académico es un servicio de la empresa Google: un buscador especializado que rastrea la Web sólo en sitios de carácter académico y científico. Indiza y extracta la información, extrayendo un inventario de documentos científicos descritos o disponibles a través de Internet. O sea, en algunos casos facilita los datos de los documentos (los describe) y en otros nos lleva incluso mediante enlaces al texto completo digital del documento existente en la Red.

Google Académico te puede interesar porque intenta acotar el campo de los documentos científicos, porque su alcance es enorme y porque incluye tanto literatura en inglés como en castellano. No obstante, los contenidos que recupera son algo imprecisos y muy heterogéneos y por tanto su tipología, estatus y calidad resultan también diversos. Dependiendo del tema y la búsqueda pueden salirte resultados especializados sobre investigación de vanguardia o programas docentes de asignaturas.
Supongamos que necesito  buscar información sobre el sistema de partidos políticos españoles, su financiación, organización, etc.

Introduzco la pregunta: Sistema de partidos políticos españoles, su financiación y organización.
   
Al hacer clic en la flecha,  que aparece a la derecha del cuadro de búsqueda, se abrirá la opción de la búsqueda avanzada del Google Académico.

en los resultados obtenidos. A continuación vendría el análisis de los datos y documentos y nuestra estrategia proseguiría quizá con otras herramientas…

Saludos!!!!!


domingo, 1 de noviembre de 2015

WEB SUPERFICIAL Y WEB PROFUNDA ACADÉMICA

Deep web: el universo paralelo de Internet
Se suele decir que únicamente consumimos de forma abierta el 4% del contenido que alberga Internet, quedando un 96% soterrado. 

Esta quinta entrada corresponde a un tema que quizás por desconocido para mi, me apasiona.....

Llevo algún tiempo investigando la forma de acceder a los contenidos, páginas, etc.... de la web profunda, voy por tanto a contaros un poco las conclusiones que voy sacando.

Cuando se dice que en Internet hay de todo, es que hay de todo. Otra cosa es que esta información sea más o menos visible, ya que la red de redes tiene un lado oculto y poco conocido, que la divide en dos partes claramente diferenciadas: la superficial y la profunda.

¿QUÉ ES LA DEEP WEB ?

Esta puerta de entrada la cruzan cada día miles de personas para adentrarse en un mundo donde cohabitan la información clasificada, las páginas olvidadas y hasta actividades delictivas, datos que no pueden ser encontrados fácilmente por los motores de búsqueda comunes, como Google o Yahoo: ya que este tipo de contenido no está en páginas indexadas. 

Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la «Internet profunda» se reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran indexar la información de la Internet profunda esto no significaría que esta dejará de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y solo determinados usuarios, aquellos con contraseña o códigos especiales, pueden hacerlo.

La Internet superficial se compone de páginas estáticas o fijas, mientras que la web profunda está compuesta de páginas dinámicas. La páginas estáticas no dependen de una base de datos para desplegar su contenido sino que residen en un servidor en espera de ser recuperadas, y son básicamente archivos HTML cuyo contenido nunca cambia. 

Los motores de búsqueda comerciales han comenzado a explorar métodos alternativos para rastrear la Web profunda. El Protocolo del sitio (primero desarrollado e introducido por Google en 2005) y OAI son mecanismos que permiten a los motores de búsqueda y otras partes interesadas descubrir recursos de la Internet profunda en los servidores web en particular.

Métodos de profundización

El contenido que existe dentro de la Internet profunda es en muy raras ocasiones mostrado como resultado en los motores de búsqueda, ya que las «arañas» no rastrean bases de datos ni los extraen. Las arañas no pueden tener acceso a páginas protegidas con contraseñas, algunos desarrolladores que no desean que sus páginas sean encontradas insertan etiquetas especiales en el código para evitar que sea indexada. Las «arañas» son incapaces de mostrar páginas que no estén creadas en lenguaje HTML, ni tampoco puede leer enlaces que incluyen un signo de interrogación.


Actualmente subsiste como TOR Project, una organización sin ánimo de lucro galardonada en 2011 por la Free Software Foundation por permitir que millones de personas en el mundo tengan libertad de acceso y expresión en Internet manteniendo su privacidad y anonimato, se realiza a través del programa TOR (The Onion Router, según sus siglas en inglés).

Así que los usuarios de TOR pueden seguir buceando tranquilamente por la Deep Web, que representa el 80% de Internet, 500 veces mayor que la red superficial, tal y como sugiere un estudio realizado por la Universidad de California en Berkeley (EE.UU.).

Cuando se ejecuta el software de Tor, para acceder a la Internet profunda, los datos de la computadora se cifran en capas. El software envía los datos a través de una red de enlaces a otros equipos ―llamados en inglés «relays» (‘nodos’)― y lo va retransmitiendo quitando una capa antes de retransmitirlo de nuevo, esta trayectoria cambia con frecuencia.

Wikileaks es otro caso emblemático de uno de los usos de la Deep Web. En sus inicios, y durante mucho tiempo, el sitio de liberación de información operó en un ecosistema Deep Web, antes que se hiciera público. Incluso ahora, para quién desee hacer una denuncia de algún tipo de posible delito, o información a Wikileaks puede hacerlo publicando en la Deep Web.





-Facebook ayuda al proyecto Tor a obtener reconocimiento oficial para los sitios ocultos .onion