Tesoros en la Red

"Lo poco que he aprendido carece de valor, comparado con lo que ignoro y no desespero en aprender" Descartes

miércoles, 4 de noviembre de 2015

INTERMEDIARIOS CRÍTICOS DEL CONOCIMIENTO

Esta es la última entrada de este estupendo curso, creo que seguiré añadiendo entradas, pues como ya he manifestado anteriormente está resultando una experiencia extraordinaria. 

La curación de contenido suena extraña, como algo alienígena, pero nada más lejos de la realidad, pues se trata de una de las actividades más sencillas que llevamos a cabo en el mundo 2.0.

La primera entrada del blog era la Infoxicación, pues la práctica para luchar contra la Infoxicación es la Curación de Contenidos.


Se trata de una nueva tendencia que ha surgido en el seno de las estrategias de marketing de contenidos que las empresas han incorporado, recientemente, a sus planes de marketing 2.0, para cubrir las necesidades que algunos buscadores de contenido en Internet, tales como Google, les han ido imponiendo, con el fin, de hacer que la información que aportan los sitios web, vaya adquiriendo valor por sus contenidos, de forma que los usuarios adquieran experiencias de máxima calidad mientras "navegan" por Internet, en su incesante búsqueda de información.

La curación de contenidos es una competencia que todos deberíamos desarrollar.Todos somos curadores de contenidos. Diariamente, cuando leemos información que nos parece relevante, inmediatamente la compartimos con algún contacto que creemos que le puede interesar o bien, en las redes sociales. 

Pero como he expresado antes, el curador de contenidos es mucho más que "compartir", "retwittear" o "copiar y pegar". El proceso de elaboración, exige de nosotros un análisis previo para poder valorar esa unidad de información. 
La crítica, la valoración y nuestra opinión, forman parte enriquecedora de nuestra curación de contenidos.

Existen en la actualidad numerosas herramientas que facilitan la curación de contenidos y que ponen esta disciplina a disposición de cualquiera que tenga interés en ponerla en práctica. Normalmente es una práctica muy extendida dentro del mundo empresarial, si bien, cada día mas, usuarios de Internet, utilizan esta técnica para hacer un uso de la información más eficiente.

  • Symbaloo organiza todos tus contenidos online de una manera fácil para navegar por Internet
  • Pinterest permite la creación de tableros sobre temas específicos. A estos tableros se pueden ir incorporando todo tipo de imágenes, vídeos, denominados pines que enlazan con la URL y una imagen.
  • Scoop.it es una herramienta para reunir información, mostrarla y compartirla en Internet. También en al ámbito educativo se está utilizando el término curación de contenidos, para hacer referencia a la tarea de: buscar fuentes de información confiables, filtrarlas y difundirlas. Podemos usar este recurso en las clases para exponer trabajos de los alumnos sobre un tema en diversos formatos.
Como ejemplo de curación de contenido he realizado una pequeña muestra en Scoop.it
http://www.scoop.it/t/curación-de-contenidos-by-marisol-6

Saludos!!!!!

Enlaces de interés
http://papelesdeinteligencia.com/curación-de-contenidos/
https://thisisohmynews.wordpress.com/2015/08/21/que-es-la-curacion-de-contenidos-y-para-que-sirve/
https://es.wikipedia.org/wiki/Curaci%C3%B3n_de_contenidos



¿CÓMO PREGUNTARLE A INTERNET?

 “SI BUSCAS RESULTADOS DISTINTOS, NO HAGAS SIEMPRE LO MISMO” Albert Einstein


En esta quinta entrada...(quien lo diría yo escribiendo algo para ser leído por otros, y la verdad, es que me está gustando muchísimo), me dejo de rollos y voy al tema que se nos pide desarrollar.... En el “arte de buscar”, se debe aprender a preguntarle a Internet, (lo hemos ido viendo en las entradas anteriores),  a detallar aquello que se desea encontrar con la mayor precisión posible.

Ya sabemos que en Internet es fácil extraviarse: La web parece invitar a que naveguemos por ella saltando mediante los hipervínculos (links) de página en página, como si hiciéramos surf. 
A veces saltamos tanto que nos desorientamos, o perdemos el tiempo sin conseguir frutos relevantes. Perdemos la página inicial de la búsqueda, olvidamos las páginas interesantes que hemos recorrido, o al final nos conformamos con lo menos valioso. Parece que navegamos casi al azar, sin rumbo definido, “clickeando” compulsivamente.
Lo más importante en una buena búsqueda es LA PREGUNTA que nos hacemos,hasta ahora hemos realizado búsqueda por palabras claves, buscadores, directorios, guías, tutoriales y algunos software especializado), etc.... Para el desarrollo de esta actividad, voy a utilizar Google Académico.

Google Académico es un servicio de la empresa Google: un buscador especializado que rastrea la Web sólo en sitios de carácter académico y científico. Indiza y extracta la información, extrayendo un inventario de documentos científicos descritos o disponibles a través de Internet. O sea, en algunos casos facilita los datos de los documentos (los describe) y en otros nos lleva incluso mediante enlaces al texto completo digital del documento existente en la Red.

Google Académico te puede interesar porque intenta acotar el campo de los documentos científicos, porque su alcance es enorme y porque incluye tanto literatura en inglés como en castellano. No obstante, los contenidos que recupera son algo imprecisos y muy heterogéneos y por tanto su tipología, estatus y calidad resultan también diversos. Dependiendo del tema y la búsqueda pueden salirte resultados especializados sobre investigación de vanguardia o programas docentes de asignaturas.
Supongamos que necesito  buscar información sobre el sistema de partidos políticos españoles, su financiación, organización, etc.

Introduzco la pregunta: Sistema de partidos políticos españoles, su financiación y organización.
   
Al hacer clic en la flecha,  que aparece a la derecha del cuadro de búsqueda, se abrirá la opción de la búsqueda avanzada del Google Académico.

en los resultados obtenidos. A continuación vendría el análisis de los datos y documentos y nuestra estrategia proseguiría quizá con otras herramientas…

Saludos!!!!!


domingo, 1 de noviembre de 2015

WEB SUPERFICIAL Y WEB PROFUNDA ACADÉMICA

Deep web: el universo paralelo de Internet
Se suele decir que únicamente consumimos de forma abierta el 4% del contenido que alberga Internet, quedando un 96% soterrado. 

Esta quinta entrada corresponde a un tema que quizás por desconocido para mi, me apasiona.....

Llevo algún tiempo investigando la forma de acceder a los contenidos, páginas, etc.... de la web profunda, voy por tanto a contaros un poco las conclusiones que voy sacando.

Cuando se dice que en Internet hay de todo, es que hay de todo. Otra cosa es que esta información sea más o menos visible, ya que la red de redes tiene un lado oculto y poco conocido, que la divide en dos partes claramente diferenciadas: la superficial y la profunda.

¿QUÉ ES LA DEEP WEB ?

Esta puerta de entrada la cruzan cada día miles de personas para adentrarse en un mundo donde cohabitan la información clasificada, las páginas olvidadas y hasta actividades delictivas, datos que no pueden ser encontrados fácilmente por los motores de búsqueda comunes, como Google o Yahoo: ya que este tipo de contenido no está en páginas indexadas. 

Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la «Internet profunda» se reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran indexar la información de la Internet profunda esto no significaría que esta dejará de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y solo determinados usuarios, aquellos con contraseña o códigos especiales, pueden hacerlo.

La Internet superficial se compone de páginas estáticas o fijas, mientras que la web profunda está compuesta de páginas dinámicas. La páginas estáticas no dependen de una base de datos para desplegar su contenido sino que residen en un servidor en espera de ser recuperadas, y son básicamente archivos HTML cuyo contenido nunca cambia. 

Los motores de búsqueda comerciales han comenzado a explorar métodos alternativos para rastrear la Web profunda. El Protocolo del sitio (primero desarrollado e introducido por Google en 2005) y OAI son mecanismos que permiten a los motores de búsqueda y otras partes interesadas descubrir recursos de la Internet profunda en los servidores web en particular.

Métodos de profundización

El contenido que existe dentro de la Internet profunda es en muy raras ocasiones mostrado como resultado en los motores de búsqueda, ya que las «arañas» no rastrean bases de datos ni los extraen. Las arañas no pueden tener acceso a páginas protegidas con contraseñas, algunos desarrolladores que no desean que sus páginas sean encontradas insertan etiquetas especiales en el código para evitar que sea indexada. Las «arañas» son incapaces de mostrar páginas que no estén creadas en lenguaje HTML, ni tampoco puede leer enlaces que incluyen un signo de interrogación.


Actualmente subsiste como TOR Project, una organización sin ánimo de lucro galardonada en 2011 por la Free Software Foundation por permitir que millones de personas en el mundo tengan libertad de acceso y expresión en Internet manteniendo su privacidad y anonimato, se realiza a través del programa TOR (The Onion Router, según sus siglas en inglés).

Así que los usuarios de TOR pueden seguir buceando tranquilamente por la Deep Web, que representa el 80% de Internet, 500 veces mayor que la red superficial, tal y como sugiere un estudio realizado por la Universidad de California en Berkeley (EE.UU.).

Cuando se ejecuta el software de Tor, para acceder a la Internet profunda, los datos de la computadora se cifran en capas. El software envía los datos a través de una red de enlaces a otros equipos ―llamados en inglés «relays» (‘nodos’)― y lo va retransmitiendo quitando una capa antes de retransmitirlo de nuevo, esta trayectoria cambia con frecuencia.

Wikileaks es otro caso emblemático de uno de los usos de la Deep Web. En sus inicios, y durante mucho tiempo, el sitio de liberación de información operó en un ecosistema Deep Web, antes que se hiciera público. Incluso ahora, para quién desee hacer una denuncia de algún tipo de posible delito, o información a Wikileaks puede hacerlo publicando en la Deep Web.





-Facebook ayuda al proyecto Tor a obtener reconocimiento oficial para los sitios ocultos .onion

viernes, 23 de octubre de 2015

BÚSQUEDA POR PALABRAS CLAVE

En esta cuarta entrada continuamos con las Herramientas de Búsqueda en Internet.

En esta ocasión la Búsqueda es por Palabras Clave.

Internet contiene una gran cantidad de información cubriendo una gran variedad de temas. 

Almacena catálogos de biblioteca, artículos, notas de prensa, literatura, multimedia, información de referencia, información de compañías y opiniones personales.  La información es creada de muchas y diferentes fuentes, incluyendo instituciones académicas, agencias de gobierno y ONGs, sociedades profesionales, información comercial y de individuos.

Los métodos básicos para encontrar la información correcta en Internet y como veíamos en la anterior entrada, son portales de información basados en temática, motores de búsqueda y herramientas de búsqueda en sitios específicos (por ejem. dentro de una base de datos bibliográfica).



Las claves del arte de buscar no consisten en conectarse al buscador ni en recorrer miles de documentos sino en aprender a detallar los pedidos con la precisión necesaria para que el mecanismo de búsqueda brinde pocas opciones: formular la pregunta adecuada es el requisito fundamental para obtener la respuesta que se necesita.



Casi todos los motores de búsqueda te dejan insertar palabras como "and", "or" para poder conectar palabras de una manera lógica y ordenada. Estas palabras se llaman "Booleans" y son la forma mas básica y exacta de hacer una búsqueda.



Estos operadores, nexos que indican qué relación debe existir entre los términos ingresados, se denominan lógicos o booleanos, en referencia al matemático y filósofo inglés, George Boole, quien en el siglo XIX ideó un sistema para el análisis de variables.

Para terminar esta entrada  voy a insertar una presentación digital online con contenidos multimedia,  que va a servir   para presentar este tema de forma un poco más detallada , es una herramienta que no había utilizado nunca, pero ha sido fácil y el resultado es bueno.


Salud@s........................



jueves, 15 de octubre de 2015

HERRAMIENTAS DE BÚSQUEDA

Mi tercera entrada del blog trata acerca de  las Herramientas de búsqueda de Información en Internet

Hoy en día la navegación por Internet cada vez se hace más complicada, debido a la ingente cantidad de información que aparece continuamente. Encontrar de forma rápida y sencilla algo que andamos buscando, puede convertirse en un tarea ardua y, a veces, con resultados no deseados.

Es fácil, pues, deducir que se necesita algún mecanismo o dispositivo que permita la clasificación, catalogación u organización de esta gran cantidad de información, de tal forma que su localización sea más sencilla.

Las Herramientas de Búsqueda de información en Internet que voy a intentar explicar  (sobre todo por mi propio desconocimiento) son: Buscadores, Metabuscadores, Directorios, Guías y Software especializado.

Para ello voy a crear un mural digital online con contenidos multimedia que va a servir   para presentar la información, es una herramienta que no había utilizado nunca, pero ha sido fácil y el resultado es bueno.

La aplicación a utilizar es Padlet, es una especie de muro virtual gratuito en la que un grupo de personas pueden dejar cualquier tipo de contenido.
Nos permite personalizar tantos muros como deseemos, aplicándoles una definición y nombre a cada uno de ellos.
La plataforma nos ofrecerá una url del muro para compartirlo con las personas que nos interesen y así los que accedan a él, sólo con un doble clic, puedan: Dejar notas, comentarios, fotos, enlaces, documentos, mapas. etc.

No es necesario registrarse pero si conveniente para identificarnos y gestionar los contenidos que se publiquen.

Salud@s!!!!!!


jueves, 8 de octubre de 2015

INFOXICACIÓN

En esta segunda entrada del blog debo escribir sobre la "Infoxicación"...

Primeramente intentaré esclarecer un poco este término.......
Cuando hablamos de la infoxicación, nos referimos a la sobreabundancia informativa que nos hace acumular cantidades pasmosas de información, documentos, fotografías, vídeos, etc. para tratar de controlar la ansiedad que nos genera el no tenerlos.
Este término, infoxicación, surge de la unión de las palabras información e intoxicación.

Actualmente con el uso de herramientas como Internet, existe la posibilidad de acceder a un inmenso mundo sobrecargado de grandes volúmenes de información; lo cual es una de las bondades, pero al mismo tiempo se ha convertido en uno de los mayores problemas para muchos usuarios, principalmente porque no pueden: realizar búsquedas efectivas o gestionar la información.

La “sobrecarga informativa” es una expresión acuñada por Alvin Toffler en su libro “Future Shock” (1970) y hace referencia al estado de contar con demasiada información para tomar una decisión o permanecer informado sobre un determinado tema.

El término “infoxicación”, fue introducido por Alfons Cornella en 1996, y se refiere a la idea de que la sobrecarga de información que recibe un usuario, en especial de Internet en todas sus formas, puede causarle la sensación de no poder abarcarla ni gestionarla y, por tanto, llegar a generarle una gran angustia.

Según Alfons Cornella: "Para procesar mucha información hay que saberla dominar. Sólo alguien que ha profundizado en una materia, que ha leído mucho sobre el tema, puede procesar rápidamente información: sabe lo que es cierto, lo que es probablemente cierto, y lo que es obviamente falso. Leemos demasiado y entendemos muy poco de lo que leemos".

En caso de no disponer de los instrumentos necesarios para filtrar y seleccionar la información que realmente nos interesa, llegamos a una situación de sobresfuerzo que impide el descanso de nuestras mentes, y que algunos autores consideran ya un auténtico síndrome o enfermedad.

¿Cuáles son estos instrumentos?

De acuerdo al criterio de Cornella, la situación ideal consistiría en disponer de un filtro personal de información, hay que diseñar instrumentos para reducir el ruido informacional que recibimos, y aumentar la productividad del tiempo de atención de que dispone el usuario. 

Algunas soluciones para combatir la sobrecarga informativa:
  • Organizarse para la lectura de información en horarios determinados.
  • Mantener una lista diaria de tareas y prioridades laborales y personales.
  • Tratar cada mensaje electrónico una sola vez: leerlo, responderlo o reenviarlo y borrarlo inmediatamente.
  • Crear carpetas para organizar la información que llega por correo electrónico. Al principio parece engorroso, pero ayuda a ahorrar tiempo de búsqueda.
  • Medir la capacidad de lectura por día, porque por mas suscripciones que tengas, no quiere decir que siempre leas todo lo que recibes.
  • Ordenar los tiempos expuestos a la información.
  • Etc...............
El problema al que nos enfrentamos, pues, no es de orden tecnológico. No existe máquina en el mundo capaz de determinar cuáles deben ser nuestros intereses. Se trata de una cuestión psicológica o sociológica. Qué criterios establecemos para permitir que determinada información llegue a nuestras neuronas.

El bombardeo de información por parte de los medios hace que la infoxicación forme parte del día a día y progresivamente los problemas vayan aumentando si nosotros mismos no nos organizamos y establecemos prioridades. 


Para terminar este post os dejo este vídeo, si bien no me interesa ni pretendo promocionar la marca que respalda, si es interesante puesto que trata sobre la Infoxicación. 






miércoles, 7 de octubre de 2015

ME PRESENTO


 Es un Blog de prácticas para el curso MOOC "Encontrando tesoros en la red" de Miríada X.