viernes, 9 de septiembre de 2016

Link Scoop.it

El proceso de curaduría de contenidos es muy interisante y valioso a su vez el mismo nos a mantenido al tanto de todos los procesos acordes a los niveles investigativos relacionados a los temas a tratar por ello les envio la ultima tarea con los contenidos relacionados a mi investigación.

Aqui ingreso mi Link de Scoop.it

LINK: http://www.scoop.it/t/diseno-multimedia-1

Podran revizar los post de las curadurias con respecto al tema investigado el Diseño.

martes, 23 de agosto de 2016

Pregunta personal dirigida en el área educativa a la Web

La pregunta personal fue:

¿crees que se podria mejorar el proceso educativo en el Ecuador? 
El mejor resultado de la busqueda formal en esta investigación fue:

LINK:http://www.filo.uba.ar/contenidos/carreras/educa/catedras/educacion1/sitio/Ecuador.htm

Este resultado de investigación dirigio de manera mas esquematica, los procesos sobre el área de mi interes la que permitio que evalue ciertos factores en el proceso educativo ecuatoriano, aquellos que establecen ciertos terminos claves para mi investigación en la Web que permitio extraer valores como los siguientes:
Cultura, factor familiar, eje de localidad, ambiente, oportunidades y debilidades, nudos criticos,etc.

En Google Académico obtuve una valiosa información sobre puntos mas esquematicos que fortalecen la investigación en gran escala dando como resultado un valor de investigación más profunda y de cáracter académico para un proceso mas minuscioso.

El resultado fue un tema muy interesante de análisis que surgio de esta busqueda en la Web:
http://atlante.eumed.net/habitos-lectura/
Una lectura muy reomendad para los procesos investigativos en el área educativa.

domingo, 14 de agosto de 2016

caracterización de la Web Superficial y la Web Profunda

 LA WEB SUPERFICIAL (SURFACE WEB)

La surface web traducida al castellano como la web superficial o también conocida como web visible es prácticamente la web que conocemos, con la que tenemos contacto diariamente. Comprende todos aquellos sitios cuya información puede ser indexada por los robots de los buscadores convencionales y recuperada casi en su totalidad mediante una consulta a sus formularios de búsqueda [4] 
Los robots también conocidos como arañas son programas inteligentes que tienen como labor la búsqueda, indización y catalogación de la información; lo hacen saltando de una página web a otra siguiendo los enlaces de hipertexto.

El problema aparece cuando la información requerida se encuentra en una página que carece de enlaces. En este caso la única forma que tiene de ser registrada en un buscador es que su autor la incluya manualmente rellenando un formulario. Caso contrario, esta web resultará invisible para todos aquellos usuarios de Internet que no conozcan la URL o dirección concreta [2].

Actualmente la posibilidad de indexar archivos no textuales como imágenes, audio, video, archivos PDF, archivos comprimidos o programas ejecutables, se ha convertido en un reto para los motores de búsqueda más convencionales. Técnicamente la mayoría de estos formatos pueden ser indexados pero muchos buscadores eligen no hacerlo porque estos formatos son más difíciles de archivar y organizar, por lo que requieren más recursos del servidor y un costo económico mayor.

VENTAJAS 

Las ventajas más notorias de la web superficial que se pueden mencionar son:  

SER DE LIBRE ACCESO 
SU INFORMACIÓN NO ESTÁ CONTENIDA EN BASES DE DATOS 
NO REQUIERE LA REALIZACIÓN DE UN PROCESO DE REGISTRO PARA ACCEDER 

DESVENTAJA



Como la desventaja más relevante que tiene la web superficial se puede mencionar el acceso a solo una parte pequeña de toda la información online que existe.

LA WEB PROFUNDA (DEEP WEB)

La web profunda que viene del inglés deep web también conocida por muchos otros nombres como invisible web, hidden web entre otros, es sin duda toda esa información a la que no tenemos acceso mediante los buscadores más comunes.

La deep web o internet profunda son redes que escapan a los buscadores más conocidos de la superficie, de ahí su nombre. Sus páginas, manuales, documentos, no están indexados y necesitamos usar programas específicos para poder acceder a ellas. Son las bases de datos no indexadas, son redes que no quieren mantener comunicación con la Internet común, son las entrañas de la red, los suburbios [5].

La deep web contiene millones de datos a los que solo se puede acceder con navegadores especializados, tanto para actividades legales como para cometer delitos.

También es muy común que al intentar acceder a un servicio de la deep web, este se encuentre caído, perdido o muerto. Hay que tener en cuenta que el mantenimiento de esas páginas no es tan habitual como el de una página web comercial, la de un periódico digital o un blog famoso, pero como todo en esta vida, no tenemos más que seguir buscando para encontrar los que realmente son buenos enlaces.

VENTAJAS

Las ventajas de la deep web sobre la surface web claramente oscilan entre el mayor volumen de información y el tipo de contenido de esta información difícil de conseguir. De este último podríamos destacar algunos contenidos ansiados por miles de personas: 
  • Revistas electrónicas.
  • Tesis Doctorales.
  • Estadísticas e informes.
  • Diccionarios y enciclopedias.
  • Materiales discográficos.
DESVENTAJAS
Las desventajas que llaman más la atención son:
  • Los buscadores convencionales no pueden indizar su contenido.
    Tener que instalar un buscador especial como ser TOR, o para dispositivos móviles ORBOT.
  • Contenido que en muchos casos solo está disponible por poco tiempo.
  • Busqueda dificil al no saber por dónde empezar y por dónde continuar.
  • Mal uso que le dan algunas personas.
Tomado de:
Surface Web vs.Deep Web
Univ. Bryan Enrique Miranda Palacios
Universidad Mayor de San Andrés
Carrera de Informática
Análisis y Diseño de Sistemas de Información
killerbmp@hotmail.com

LINK DE DESCARGA DE DOCUMENTO:
http://www.revistasbolivianas.org.bo/pdf/rits/n9/n9_a07.pdf

 


Pasos para generar una BUSQUEDA AVANZADA en INTERNET

LA BUSQUEDA AVANZADA

Búsqueda avanzada

La página de búsqueda avanzada te permite restringir los resultados web de búsquedas complejas. Por ejemplo, puedes encontrar sitios que se hayan actualizado en las últimas 24 horas o imágenes en blanco y negro.

Hacer búsquedas avanzadas

  1. Accede a la página Búsqueda avanzada.
  2. Escribe los términos de búsqueda en la sección “Buscar páginas con”.
  3. Elige los filtros que quieras utilizar en la sección “A continuación, limitar los resultados por”. Puedes utilizar un filtro o varios.
  4. Haz clic en Búsqueda avanzada.
Sugerencia: También puedes utilizar muchos de estos filtros en el cuadro de búsqueda con operadores de búsqueda

Dentro de esta actividad, me he dado cuenta que la busquedad avanzada es el mejor mecanismo para encontrar información relevante de un tema especifico, las funciones motoras que posee el motor de busqueda que usemos nos ayuda a encontrar justamente lo que necesitamos en el menor tiempo posible.


 

miércoles, 3 de agosto de 2016

Infoxicación, problemática asociada a la gestión de la sobreabundancia de información que ofrece Internet

Si buscamos una explicación sencilla sobre qué es la infoxicación deberíamos decir que la infoxicación es la sobrecarga de información o exceso de información provocada por la profusión de contenidos en Internet.
Este fenómeno afecta especialmente a los profesionales del conocimiento, a casi todos los directores en una organización y por extensión a todos los usuarios de Internet en mayor o menor medida. Creo que en general pocas personas se libran.
Si has padecido alguno de estos síntomas alguna vez:
  • Agobio o ahogo derivado de la cantidad de datos o informaciones
  • Parálisis por un volumen ingente de información
  • Desconcierto ante tanto contenido sobre un tema
Entonces ya sabes qué es la infoxicación. La vives en primera persona.

¿Qué es la infoxicación? una breve historia del concepto

Podemos afirmar sin miedo que la infoxicación es la enfermedad de la sociedad digital de principios del siglo XXI.
Su peor consecuencia es que nos paraliza y nos impide avanzar hacia los objetivos que nos hemos propuesto ya sean individuales o colectivos como organización; por mera saturación informativa.
El concepto de infoxicación como tal fue acuñado por primera vez por Alfons Cornella, Fundador y presidente de Infonomía en el año 2000 o finales de 1999.
Sin duda fue un acierto por parte de Alfons que fue el primero en definir y darse cuenta de qué es la infoxicación.
De esta forma para principios de este siglo ya existía un concepto para definir los síntomas de lo que empezábamos a vivir como un fenómeno global y que fue impulsado primero por Google y las redes sociales después. Para seguir ampliándose con la Internet de las cosas.

Causas de la infoxicación

La causas de la infoxicación son sencillas.
Ya hemos dicho que se debe al volumen inmanejable de datos, informaciones, contenidos y conocimientos que podemos recibir y obtener de Internet.
Si es cierto que la posibilidad de compartir y crear contenidos por parte de cualquier usuario en Internet, estoy pensando en las redes sociales y blogs, esta contribuyendo a ampliar el problema. Sobre todo en algunas industrias relacionada con Internet.
Y también es cierto que el volumen de información y datos en Internet no va a parar de crecer. Pensemos por ejemplo en lo que dice Genis Roca sobre la evolución de Internet y la era del Internet de las cosas:
Las etapas de Internet La Internet de las cosas, también llamada M2M (‘machine to machine’). Actualmente hay apenas unos 1.400 millones de objetos cotidianos conectados a la red, pero en 2020 se espera que sean ya más de 40.000 millones. Un crecimiento brutal que va a modificar de manera radical el aspecto de la Internet que conocemos.
 ¿Quiere decir esto que el problema se agravará? No necesariamente para aquellos que aprendan a controlar el flujo de informaciones.
¿Por que? porque el principal responsable de sufrir esta saturación de información eres tu.
Desde el punto de vista profesional debería decir que esto es algo incomprensible, que no entiendo como alguien puede decir que Twitter o Google es una fuente, y no se comprueba la fuente real, es decir, el autor de la información. Sin embargo, lo entiendo.
Veo comprensible que cualquier persona, en su vida profesional o no, no sea capaz, o no quiera, validar las fuentes. Es algo lógico si cuando buscamos cualquier información en Google nos encontramos con, por ejemplo, 650.000 resultados. ¿Quién es capaz de leer más de 4 o 5 hojas de resultados? ¿Quién tiene el tiempo suficiente para comprobar si los datos son reales? Es más ¿alguien ha comprobado que realmente haya 650.000 resultados? Y ya, para rematar, ¿a alguien realmente le importa si en vez de 650.000 hay 520.000?
Estamos en una situación en la que tenemos acceso a infinidad de fuentes de información, las noticias llegan de forma inmediata a todas partes, tenemos medios tecnológicos para estar informados continuamente y sobre todo queremos saber qué sucede en nuestro entorno.
Como consecuencia nos llegan miles de impactos informativos que no tenemos capacidad de procesar. En ese momento estamos infoxicados.
Pero…¿Por qué nos infoxicamos?
  • Porque no nos expresamos bien en la web. No olvidemos que la web, google, o quien sea, no está leyendo nuestra mente, luego no sabe que estamos pensando, así que a veces entiende cosas diferentes a partir de nuestras palabras escritas.
  • Porque no somos críticos con nuestras necesidades de información. Internet es tan tentador que nos suscribimos a más información de la necesaria o nos desviamos en nuestras investigaciones gastando más tiempo del necesario.
  • Porque no utilizamos los medios técnicos necesarios para mejorar nuestra eficiencia.
Por tanto, todo es culpa nuestra, no echemos la culpa al medio o al mensajero y pongamos remedio.

Como escapar de la sobreabundancia de la información

Teniendo claro qué es la infoxicación y sus causas lo lógico es aprender a combatirla.
Y la solución es más o menos sencilla: Filtrar o curar los contenidos, datos e informaciones de forma automatizada y sistematizada.
Este es un tema del que hemos hablado en multitud de ocasiones en este blog.
Aquí puedes consultar como hacer frente a la infoxicación según tu situación:
Al igual que Internet ha evolucionado, lo han hecho también las herramientas para capturar filtrar la información.
La cuestión es ser consciente de todo lo que te estas perdiendo por no saber como filtrar la información. Y estas son básicamente:
  • Conocer las motivaciones de tus clientes
  • Saber como actúan o van a actuar tus competidores
  • Alimentar tu marketing de contenidos o tu innovación
  • Desarrollar la gestion del conocimiento interno y externo
Casi nada…¿no es cierto?
Así pues aplicando las herramientas correctas para cada tarea y centrándonos en las fuentes correctas, teniendo muy claro qué queremos saber, nos encontraremos con mucha menos cantidad de información y más interesante. Dejaremos de estar infoxicados.
Por último creo que es interesante que nos respondamos a estas preguntas: ¿me beneficia en algo estar infoxicado? ¿a quién le beneficia que yo esté infoxicado? La respuesta creo que es obvia…