Sie sind auf Seite 1von 14

Tipos de Procesadores de Palabras Basadas en

la Web
El impacto de la Red en las aulas podrá no ser tan grande como una vez se pensó -
la revolución en la educación, prometida por algunos que abogaban por la Redal
principio de la explosión del Internet, no se ha materializado. Pero, con seguridad,
el impacto del Internet se está sintiendo. Lo que es más, a medida que los avances
en tecnología tienden a reducir los costos del hardware y del acceso a la Red,
estudiantes y maestros continuarán incorporando la Red, correo electrónico y otras
tecnologías, basadas en Internet, dentro de los métodos de instrucción,
planificación de lecciones y trabajo administrativo en los salones de clases. Como
afecten éstas tecnologías, el proceso educacional en su totalidad, es una pregunta
que necesita ser examinada más de cerca.
El valor y atractivo del Internet como una herramienta de instrucción es obvio: una
red global de información, accesible virtualmente a todos, la Redparecería ser el
sueño del maestro, hecho realidad. Por ejemplo, la búsqueda rápida de ''museos''
en Yahoo, arroja más de 2.000 sitios, desde pequeñas galerías, hasta instituciones
internacionales de renombre, tales como Guggenheim en Bilbao, España, y el
museo de van Goghen Bélgica. En la Red, periódicos, bibliotecas, materiales de
referencia e investigación, de todos los rincones del planeta, están a solo unos
pocos 'click' con el botón del mouse.
Sin embargo, esta abundancia de información presenta ciertos desafíos en el aula.
Con tantas opciones y contenido de donde escoger, la tentación para los
estudiantes y maestros es de simplemente recorrer, superficialmente, este mar de
información sin nunca profundizar en ella. ''Navegar'' por la Redpodrá ser divertido
durante el tiempo libre, pero tiene poco que ver con el aprendizaje en serio. Si los
educadores - desde los primero grados hasta el nivel universitario - se dieran
cuenta del potencial que tiene el Internet como herramienta de aprendizaje,
necesitarían desarrollar una estructura de trabajo mediante la cual los estudiantes
pudieran, con efectividad, localizar y utilizar el contenido de las aplicaciones
disponibles en-línea.
El Internet, por supuesto, está compuesto de varias entidades o tecnologías
distintas: correo electrónico, Protocolo de Transferencia para Archivos, la Red
Mundial, mensajería instantánea, Protocolo de Voz, etc. Veamos primero a la Red.
Comenzando a mediados de los años 1900, el contenido basado en HTML y el
navegador de la Red, brindaron a los usuarios de computadoras una habilidad sin
precedentes para navegar a través de contenido gráfico y de texto, simplemente
mediante el uso del botón del mouse en enlaces de hipertexto. Esta simple
tecnología cambió radicalmente, de la noche a la mañana, la manera en que la
gente utilizaba las computadoras,. De ser una herramienta de negocios, procesador
de palabras o juegos, el PC pasó a ser una vía de noticias, un instrumento poderoso
para investigaciones y un canal para las comunicaciones de uno-con-uno, y uno-
con-varios.
Navegar por la Redse convirtió en un pasatiempo popular, especialmente para los
jóvenes. Al mismo tiempo, los educadores miraban a este medio cautelosamente.
Sí, en el Internet se veía un gran potencial como herramienta de aprendizaje. Pero:
¿en verdad tendría mérito educacional el contenido disponible en la Red? Y ¿daría
el estilo de navegación por la Redde muchos usuarios, el tono debido para el salón
de clases? Para los estudiantes de primaria, quienes a menudo se adhieren a
agendas bastante apretadas durante el día, pasar dos horas en la computadora
para obtener información de tortugas marinas para un reporte, es imposible.
Igualmente, para profesores, el volumen abrumador de información en la Red,
presentaba una desventaja significativa para convertirse en una herramienta de
utilidad diaria.
Por estas razones, muchos en la comunidad educativa comenzaron a explorar
maneras de capturar el potencial de la Red, tales como, la compilación de listas con
sitios útiles para crear un ''portal de aprendizaje'', filtrando el material indeseado o
creando contenido nuevo que fuera personalizado específicamente para
determinados rangos de edades, grados o escuelas. Esta tendencia se puede ver
en Escuela Futura, un sitio en la Red de Intellicom. Esta compañía provee
soluciones para conectividad de banda-ancha.
Escuela Futura
Es una colección única de materiales basados en la Redy en contenido original.
Escuela Futura es un medio de aprendizaje en línea, especialmente diseñado para
alcanzar las necesidades de estudiantes y maestros a través de América Latina.
Captura información y currículos de todo el mundo, lo traduce al español y lo
presenta en un formato apropiado para estudiantes. Con una interfase amistosa
para los niños y un formato fácilmente navegable, Escuela Futura ayuda a los
estudiantes a que utilicen las capacidades que brinda la Red, de una manera
consistente, con las buenas prácticas educacionales.
Escuela Futura tiene una gran variedad de contenido educacional. En su biblioteca
virtual, los estudiantes pueden encontrar enlaces a diccionarios en Inglés y Español,
un Thesaurusy herramientas generales de referencia. Señalando un enlace al sitio
de National Geographics Xpeditions, los muchachos pueden ver e incluso imprimir,
más de 500 mapas. También hay herramientas de geografía, energizadas por
''Libros del Mundo en línea'' y enlaces a dos enciclopedias: Encarta de Microsoft y
Enciclopedia Británica.
Más que una simple colección de contenido, Escuela Futura también ofrece
herramientas de comunicación y aplicaciones de escritorio basadas en la Red,
incluyendo un procesador de palabras, una calculadora y un programa utilitario de
arte y pintura. La selección de aplicaciones de comunicación incluye correo
electrónico en la Red, un panel de discusiones y uno de 'Exposición', además de una
aplicación que lepermite a los estudiantes de toda Latinoamérica, compartir y
publicar su trabajo, en línea. Esencialmente, Escuela Futura sirve como un lugar
central de reunión y foro de comunicaciones, para estudiantes alrededor del país y,
potencialmente, del mundo.
Escuela Futura es, además, una herramienta valiosa para los maestros. Hay
recursos de desarrollo profesional, estándares para currículos y material referencial,
para la incorporación del Internet, en al ámbito del salón de clases. Diseñado para
su uso referencial sencillo, ''Enseñando con Tecnología'' provee antecedentes
informacionales útiles acerca de Internet y ayuda a los maestros a dominar los
puntos más sofisticados de los recursos educacionales basados en la tecnología.
''Mi Escuela'' es otra herramienta: un sistema completo, para estudiantes y
maestros, que se usa para la administración de clases. Los maestros pueden
consultar guías de software para ponerse al día en las últimas aplicaciones y los
últimos programas auxiliares para navegadores.
Un modelo pionero, el ''portal educacional'' de la Escuela Futura, apunta al camino
para el futuro del aprendizaje basado en Internet. No sólo a través de su modelo
organizacional y enfoque a estudiantes y maestros, sino también porque
comprende contenido de banda-ancha. Lo más notable es que los usuarios de
Escuela Futura pueden tener acceso a noticias en vídeo de todo el mundo, a través
de CNNenEspañol.com.
La creciente disponibilidad y popularidad de la tecnología de conexión por banda
ancha, tales como DSL, cable, además de inalámbrico-fijo, está transformando al
Internet. Al principio de la Red, cuando la mayoría de las personas accedían usando
conexiones tipo dial-up de 56Kbps, los proveedores de contenido tenían que
mantener sus sitios lo más simples posible. Si una página demoraba más de unos
cuantos segundos en bajar, los navegadores, con toda probabilidad, seguirían a otro
sitio. Hoy en día, los contenidos de banda-ancha tales como corrientes de audio y
vídeo, y características animadas, están ampliamente disponibles. Estos cambios
están comenzando a tener un impacto en el papel que Internet juega en el proceso
educativo.
La banda-ancha se presta a innumerables usos en el sector educacional. Por
ejemplo, aprendiendo a distancia, es una utilización natural de esta conectividad, y
se puede describir como una transmisión de tipo ''uno-a-varios'', de material
educacional y de entrenamiento. La habilidad para entrenar simultáneamente a
estudiantes, profesionales y otros, en diferentes lugares, puede ser de gran ayuda
en el despliegue de nuevos programas y currículos.
Mirando hacia Adelante
Hace solamente seis años que el navegador de la red Netscape hizo su debut y así
comenzó la Erade Internet. En este corto tiempo, la naturaleza de las
comunicaciones ha cambiado en todo el mundo. Correo Electrónico, chateo
instantáneo y acceso inmediato a una vasta gama de información, han acelerado el
ritmo de la vida. Para educadores, estos cambios han resultado en beneficios
variados. El Internet representa otra tecnología por incorporar en el salón de
clases. Pero, desde el principio, el Internet ha brindado un potencial enorme para
traer cambios y mejoramientos positivos al proceso educacional. Con el éxito
continuo de portales educacionales, tales como Escuela Futura, y la creciente
disponibilidad de conexiones con gran ancho de banda, al igual que el contenido de
banda-ancha, esta promesa ya es una realidad.

La Web 2.0
El término, Web 2.0 fue acuñado por Tim O'Reilly en 2004 para referirse a una
segunda generación en la historia del desarrollo de tecnología Web basada en
comunidades de usuarios y una gama especial de servicios, como las redes
sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el
intercambio ágil de información entre los usuarios de una comunidad o red social.
El concepto original del contexto, llamado Web 1.0 era páginas estáticas HTML que
no eran actualizadas frecuentemente. El éxito de las punto-com dependía de webs
más dinámicas (a veces llamadas Web 1.5) donde los CMS Sistema de gestión de
contenidos (Content Management System en inglés, abreviado CMS) servían
páginas HTML dinámicas creadas al vuelo desde una actualizada base de datos. En
ambos sentidos, el conseguir hits (visitas) y la estética visual eran considerados
como factores importantes.
Los propulsores de la aproximación a la Web 2.0 creen que el uso de la web está
orientado a la interacción y redes sociales, que pueden servir contenido que explota
los efectos de las redes, creando o no webs interactivas y visuales. Es decir, los
sitios Web 2.0 actúan más como puntos de encuentro, o webs dependientes de
usuarios, que como webs tradicionales.
Origen del término
El término fue acuñado por Dale Dougherty de O'Reilly Media en una lluvia de ideas
con Craig Cline de MediaLive para desarrollar ideas para una conferencia.
Dougherty sugirió que la web estaba en un renacimiento, con reglas que cambiaban
y modelos de negocio que evolucionaban. Dougherty puso ejemplos — "DoubleClick
era la Web 1.0; Google AdSense es la Web 2.0. Ofoto es Web 1.0; Flickr es Web 2.0."
— en vez de definiciones, y reclutó a John Battelle para dar una perspectiva
empresarial, y O'Reilly Media, Battelle, y MediaLive lanzó su primera conferencia
sobre la Web 2.0 en Octubre del 2004. La segunda conferencia se celebró en
octubre de 2005.
En su conferencia, O'Reilly y Battelle resumieron los principios clave que creen que
caracterizan a las aplicaciones web 2.0: la web como plataforma; datos como el
"Intel Inside"; efectos de red conducidos por una "arquitectura de participación";
innovación y desarrolladores independientes; pequeños modelos de negocio
capaces de redifundir servicios y contenidos; el perpetuo beta; software por encima
de un solo aparato.
En general, cuando mencionamos el término Web 2.0 nos referimos a una serie de
aplicaciones y páginas de Internet que utilizan la inteligencia colectiva para
proporcionar servicios interactivos en red dando al usuario el control de sus datos.
Así, podemos entender como 2.0 -"todas aquellas utilidades y servicios de
Internet que se sustentan en una base de datos, la cual puede ser
modificada por los usuarios del servicio, ya sea en su contenido
(añadiendo, cambiando o borrando información o asociando datos a la
información existente), pues bien en la forma de presentarlos, o en
contenido y forma simultáneamente."- (Ribes, 2007)

Tecnología
La infraestructura de la Web 2.0 es muy compleja y va evolucionando, pero incluye
el software de servidor, redifusión de contenidos, protocolos de mensajes,
navegadores basados en estándares, y varias aplicaciones para clientes.
Una web se puede decir que está construida usando tecnología de la Web 2.0 si se
caracteriza por las siguientes técnicas:
• Técnicas:
○ CSS, marcado XHTML válido semánticamente y Microformatos
○ Técnicas de aplicaciones ricas no intrusivas (como AJAX)
○ Java Web Start
○ XUL
○ Redifusión/Agregación de datos en RSS/ATOM
○ URLs sencillas con significado semántico
○ Soporte para postear en un blog
○ JCC y APIs REST o XML
○ JSON
○ Algunos aspectos de redes sociales
○ Mashup (aplicación web híbrida)
• General:
○ El sitio no debe actuar como un "jardín cerrado": la información debe
poderse introducir y extraer fácilmente
○ Los usuarios deberían controlar su propia información
○ Basada exclusivamente en la Web: los sitios Web 2.0 con más éxito
pueden ser utilizados enteramente desde un navegador
Servicios Web
Los protocolos de mensajes bidireccionales son uno de los elementos clave de la
infraestuctura de la Web 2.0. Los dos tipos más importantes son los métodos
RESTful y SOAP. REST indican un tipo de llamada a un servicio web donde el cliente
transfiere el estado de todas las transacciones. SOAP y otros métodos similares
dependen del servidor para retener la información de estado. En ambos casos, el
servicio es llamado desde un API. A veces este API está personalizado en función de
las necesidades específicas del sitio web, pero los APIs de los servicios web
estándares (como por ejemplo escribir en un blog) están también muy extendidos.
Generalmente el lenguaje común de estos servicios web es el XML, si bien puede
haber excepciones.
Recientemente, una forma híbrida conocida como Ajax ha evolucionado para
mejorar la experiencia del usuario en las aplicaciones web basadas en el navegador.
Esto puede ser usado en webs propietarias (como en Google Maps) o en formas
abiertas utilizando un API de servicios web.
Software de servidor
La funcionalidad de Web 2.0 se basa en la arquitectura existente de servidor web
pero con un énfasis mayor en el software dorsal. La redifusión sólo se diferencia
nominalmente de los métodos de publicación de la gestión dinámica de contenido,
pero los servicios Web requieren normalmente un soporte de bases de datos y flujo
de trabajo mucho más robusto y llegan a parecerse mucho a la funcionalidad de
internet tradicional de un servidor de aplicaciones. El enfoque empleado hasta
ahora por los fabricantes suele ser bien un enfoque de servidor universal, el cual
agrupa la mayor parte de la funcionalidad necesaria en una única plataforma de
servidor, o bien un enfoque plugin de servidor Web con herramientas de publicación
tradicionales mejoradas con interfaces API y otras herramientas.
Independientemente del enfoque elegido, no se espera que el camino evolutivo
hacia la Web 2.0 se vea alterado de forma importante por estas opciones.
Comparación con la "Web 1.0"
De acuerdo con Tim O'Reilly [4], la Web 2.0 puede ser comparada con la Web 1.0 de
esta manera:

Web 1.0 Web 2.0

DoubleClick Google AdSense

Ofoto Flickr

Terratv Youtube

Akamai BitTorrent

mp3.com Napster

Enciclopedia Británica Wikipedia

webs personales blogging


evite upcoming.org y EVDB

especulación de optimización de los


nombres de dominios motores de búsqueda

páginas vistas coste por clic

screen scraping servicios web

publicación participación

sistema de gestión de
wiki
contenidos

directorios (taxonomía) etiquetas (folcsonomía)

stickiness redifusión

Comparación con la Web Semántica


En ocasiones se ha relacionado el término Web 2.0 con el de Web semántica.1 Sin
embargo ambos conceptos, corresponden más bien a estados evolutivos de la web,
y la Web semántica correspondería en realidad a una evolución posterior, a la Web
3.0 o web inteligente. La combinación de sistemas de redes sociales, como FOAF y
XFN, con el desarrollo de etiquetas (o tags), que en su uso social derivan en
folcsonomías, así como el plasmado de todas estas tendencias a través de blogs y
wikis, confieren a la Web 2.0 un aire semántico sin serlo realmente. Sin embargo, en
el sentido más estricto para hablar de Web semántica, se requiere el uso de
estándares de metadatos como Dublin Core y en su forma más elaborada de
ontologías y no de folcsonomías. De momento, el uso de ontologías como
mecanismo para estructurar la información en los programas de blogs es
anecdótico [5] y sólo se aprecia de manera incipiente en algunos wikis.
Por tanto podemos identificar la Web semántica como una forma de Web 3.0. Existe
una diferencia fundamental entre ambas versiones de web (2.0 y semántica) y es el
tipo de participante y las herramientas que se utilizan. La 2.0 tiene como principal
protagonista al usuario humano que escribe artículos en su blog o colabora en un
wiki. El requisito es que además de publicar en HTML emita parte de sus
aportaciones en diversos formatos para compartir esta información como son los
RSS, ATOM, etc. mediante la utilización de lenguajes estándares como el XML. La
Web semántica, sin embargo, está orientada hacia el protagonismo de procesadores
de información que entiendan de lógica descriptiva en diversos lenguajes más
elaborados de metadatos como SPARQL,2 POWDER3 u OWL que permiten describir
los contenidos y la información presente en la web, concebida para que las
máquinas "entiendan" a las personas y procesen de una forma eficiente la
avalancha de información publicada en la Web.

Red Social
Una red social es una estructura social que se puede representar en forma de uno
o varios grafos en el cual los nodos representan individuos (a veces denominados
actores) y las aristas relaciones entre ellos. El aumento de las visitas de los
internautas a las redes sociales ha reducido a la mitad las visitas a los sitios con
contenido pornográfico, según los datos recogidos.

Historia
Desde su introducción, los sitios de redes sociales (SRS) tales como MySpace,
Facebook, Cyworld, Twitter y Bebo han atraído a millones de usuarios, muchos de
los cuales han integrado estos sitios en sus prácticas diarias1 . El primer sitio de
redes sociales reconocibles puesto en marcha en 1997 - SixDegrees.com permitía a
los usuarios crear perfiles, lista de amigos y amigos de sus amigos. De 1997 a 2001,
AsianAvenue, Blackplanet y MiGente permitían a los usuarios crear relaciones
personales y profesionales, creando perfiles que permitían a los usuarios identificar
amigos en sus redes sin pedir la aprobación de esas conexiones. Figura 1 en el
apéndice se describe el importante lanzamiento y re-lanzamiento de las fechas
clave SRS dentro de la industria.
Desde entonces diversas redes se han creado unas permanecen y otras han
desaparecido, según la zona geográfica el líder puede ir cambiando, pero a la fecha
(2009) los principales competidores a nivel mundial son: MySpace, Facebook,
LinkedInn, Twitter.
Ryze.com se inició en 2001 para ayudar a las personas aprovechar sus objetivos
empresariales y profesionales mediante la creación de redes profesionales. Su
premisa fue proporcionar una red de apoyo para los consumidores en un entorno
profesional que les permita la búsqueda de puestos de trabajo, hacer las
conexiones de empresas, y potenciar las comunidades virtuales para las
necesidades de las empresas en general. LinkedInn también fue creado para
capturar este segmento de mercado y ha evolucionado hasta ser el estándar de la
industria profesional para la creación de redes con muchas de las características de
redes sociales adoptadas en el sitio.
MySpace se instaló en 2003 y se ha diferenciado de otros sitios por que permite a
los usuarios personalizar sus páginas. Los adolescentes fueron los primeros en
adoptarlo y MySpace floreció a través de la atracción de este grupo demográfico.
MySpace incluso ha modificado su política de usuario para permitir a los menores
de edad crear sus propios perfiles a raíz de la demanda en el segmento de
mercado. Conforme el sitio ha crecido, tres poblaciones se empezaron a formar: los
músicos / artistas, jóvenes, y adultos en su etapa posterior a la universidad.
Facebook fue creado originalmente para apoyar a las redes universitarias, en 2004
los usuarios del sitio estaban obligados a proporcionar las direcciones de correo
electrónico asociada con las instituciones educativas. Este requisito lo llevo a ser un
modelo de acceso relativamente cerrado y por lo que los usuarios tenían la
percepción de la web como un sitio íntimo y privado de una comunidad demográfica
cerrada. Facebook posteriormente se ha ampliado para incluir a los estudiantes de
secundaria, profesionales, y finalmente todos los usuarios potenciales de Internet. A
diferencia de otros SRS, en Facebook los usuarios sólo pueden hacer públicos sus
perfiles a otros usuarios del sitio. Otra característica que distingue a Facebook es la
capacidad para desarrolladores externos de crear aplicaciones lo que permite a los
usuarios personalizar sus perfiles y realizar otras tareas, tales como comparar las
preferencias de las películas. (Boyd y Ellison, 2007).

Software para el análisis de redes sociales


El uso de las ideas y herramientas de la rama de las matemáticas conocida como
"teoría de grafos" ha ayudado a desarrollar una gran cantidad de herramientas y
software de análisis. A diferencia de estas herramientas de análisis, muchas
compañías han desarrollado también software dirigido a promover relaciones entre
internautas, ya sea con fines laborales, lúdicos o de cualquier tipo.
Redes sociales en Internet
El software germinal de las redes sociales parte de la teoría de los Seis grados de
separación, según la cual toda la gente del planeta está conectada a través de no
más de seis personas. De hecho, existe una patente en EEUU conocida como six
degrees patent por la que ya han pagado Tribe y LinkedIn. Hay otras muchas
patentes que protegen la tecnología para automatizar la creación de redes y las
aplicaciones relacionadas con éstas.
En The social software weblog han agrupado 120 sitios web en 10 categorías y
QuickBase también ha elaborado un completo cuadro sobre redes sociales en
Internet.
El origen de las redes sociales se remonta, al menos, a 1995, cuando Randy
Conrads crea el sitio web classmates.com. Con esta red social se pretende que la
gente pueda recuperar o mantener el contacto con antiguos compañeros del
colegio, instituto, universidad, etcétera.
En 2002 comienzan a aparecer sitios web promocionando las redes de círculos de
amigos en línea cuando el término se empleaba para describir las relaciones en las
comunidades virtuales, y se hizo popular en 2003 con la llegada de sitios tales
como MySpace o Xing. Hay más de 200 sitios de redes sociales, aunque Friendster
ha sido uno de los que mejor ha sabido emplear la técnica del círculo de amigos[. La
popularidad de estos sitios creció rápidamente y grandes compañías han entrado
en el espacio de las redes sociales en Internet. Por ejemplo, Google lanzó Orkut el
22 de enero de 2004. Otros buscadores como KaZaZZ! y Yahoo crearon redes
sociales en 2005.
En estas comunidades, un número inicial de participantes envían mensajes a
miembros de su propia red social invitándoles a unirse al sitio. Los nuevos
participantes repiten el proceso, creciendo el número total de miembros y los
enlaces de la red. Los sitios ofrecen características como actualización automática
de la libreta de direcciones, perfiles visibles, la capacidad de crear nuevos enlaces
mediante servicios de presentación y otras maneras de conexión social en línea.
Las redes sociales también pueden crearse en torno a las relaciones comerciales.
Las herramientas informáticas para potenciar la eficacia de las redes sociales online
(‘software social’), operan en tres ámbitos, “las 3Cs”, de forma cruzada:
• Comunicación (nos ayudan a poner en común conocimientos).
• Comunidad (nos ayudan a encontrar e integrar comunidades).
• Cooperación (nos ayudan a hacer cosas juntos).
El establecimiento combinado de contactos (blended networking) es una
aproximación a la red social que combina elementos en línea y del mundo real para
crear una mezcla. Una red social de personas es combinada si se establece
mediante eventos cara a cara y una comunidad en línea. Los dos elementos de la
mezcla se complementan el uno al otro. Vea también computación social.
Las redes sociales continúan avanzando en Internet a pasos agigantados,
especialmente dentro de lo que se ha denominado Web 2.0 y Web 3.0, y dentro de
ellas, cabe destacar un nuevo fenómeno que pretende ayudar al usuario en sus
compras en Internet: las redes sociales de compras. Las redes sociales de
compras tratan de convertirse en un lugar de consulta y compra. Un espacio en el
que los usuarios pueden consultar todas las dudas que tienen sobre los productos
en los que están interesados, leer opiniones y escribirlas, votar a sus productos
favoritos, conocer gente con sus mismas aficiones y, por supuesto, comprar ese
producto en las tiendas más importantes con un solo clic. Esta tendencia tiene
nombre, se llama Shopping 2.0.
Wiki
Un wiki, o una wiki, es un sitio web cuyas páginas web pueden ser editadas por
múltiples voluntarios a través del navegador web. Los usuarios pueden crear,
modificar o borrar un mismo texto que comparten. Los textos o "páginas wiki"
tienen títulos únicos. Si se escribe el título de una "página-wiki" en algún lugar del
wiki, esta palabra se convierte en un "enlace web" (o "link") a la página web.
En una página sobre "alpinismo" puede haber una palabra como "piolet" o "brújula"
que esté marcada como palabra perteneciente a un título de página wiki. La mayor
parte de las implementaciones de wikis indican en el URL de la página el propio
título de la página wiki (en Wiki pedía ocurre así:
http://es.wikipedia.org/wiki/Alpinismo), facilitando el uso y comprensibilidad del link
fuera del propio sitio web. Además, esto permite formar en muchas ocasiones una
coherencia terminológica, generando una ordenación natural del contenido.
La aplicación de mayor peso y a la que le debe su mayor fama hasta el momento ha
sido la creación de enciclopedias colaborativas, género al que pertenece la Wiki
pedía. Existen muchas otras aplicaciones más cercanas a la coordinación de
informaciones y acciones, o la puesta en común de conocimientos o textos dentro
de grupos.
La mayor parte de los wikis actuales conservan un historial de cambios que permite
recuperar fácilmente cualquier estado anterior y ver 'quién' hizo cada cambio, lo
cual facilita enormemente el mantenimiento conjunto y el control de usuarios
destructivos. Habitualmente, sin necesidad de una revisión previa, se actualiza el
contenido que muestra la página wiki editada.

Historia
El origen de los wikis está en la comunidad de patrones de diseño, cuyos
integrantes los utilizaron para escribir y discutir patrones de programación. El
primer WikiWikiWeb fue creado por Ward Cunningham, quien inventó y dio
nombre al concepto wiki, y produjo la primera implementación de un servidor
WikiWiki para el repositorio de patrones del Portland (Portland Pattern Repository)
en 1995. En palabras del propio Cunningham, un wiki es "la base de datos en línea
más simple que pueda funcionar" (the simplest online database that could possibly
work). El wiki de Ward aún es uno de los sitios wiki más populares.
En enero de 2001, los fundadores del proyecto de enciclopedia Nupedia, Jimbo
Wales y Larry Sanger, decidieron utilizar un wiki como base para el proyecto de
enciclopedia Wikipedia. Originalmente se usó el software UseMod, pero luego
crearon un software propio, MediaWiki, que ha sido adoptado después por muchos
otros wikis.
Actualmente, el wiki más grande que existe es la versión en inglés de Wikipedia,
seguida por varias otras versiones del proyecto. Los wikis ajenos a Wikipedia son
mucho más pequeños y con menor participación de usuarios, generalmente debido
al hecho de ser mucho más especializados. Es muy frecuente por ejemplo la
creación de wikis para proveer de documentación a programas informáticos,
especialmente los desarrollados en software libre.

Ventajas
La principal utilidad de un wiki es que permite crear y mejorar las páginas de forma
instantánea, dando una gran libertad al usuario, y por medio de una interfaz muy
simple. Esto hace que más gente participe en su edición, a diferencia de los
sistemas tradicionales, donde resulta más difícil que los usuarios del sitio
contribuyan a mejorarlo.
Dada la gran rapidez con la que se actualizan los contenidos, la palabra «wiki»
adopta todo su sentido. El documento de hipertexto resultante, denominado
también «wiki» o «WikiWikiWeb», lo produce típicamente una comunidad de
usuarios. Muchos de estos lugares son inmediatamente identificables por su
particular uso de palabras en mayúsculas, o texto capitalizado; uso que consiste en
poner en mayúsculas las iniciales de las palabras de una frase y eliminar los
espacios entre ellas, como por ejemplo en EsteEsUnEjemplo. Esto convierte
automáticamente a la frase en un enlace. Este wiki, en sus orígenes, se comportaba
de esa manera, pero actualmente se respetan los espacios y sólo hace falta
encerrar el título del enlace entre dos corchetes.

Características
Un wiki permite que se escriban artículos colectivamente (co-autoría) por medio de
un lenguaje de wikitexto editado mediante un navegador. Una página wiki singular
es llamada "página wiki", mientras que el conjunto de páginas (normalmente
interconectadas mediante hipervínculos) es "el wiki". Es mucho más sencillo y fácil
de usar que una base de datos.
Una característica que define la tecnología wiki es la facilidad con que las páginas
pueden ser creadas y actualizadas. En general no hace falta revisión para que los
cambios sean aceptados. La mayoría de wikis están abiertos al público sin la
necesidad de registrar una cuenta de usuario. A veces se requiere hacer login para
obtener una cookie de "wiki-firma", para autofirmar las ediciones propias. Otros
wikis más privados requieren autenticación de usuario.
Páginas y edición
En un wiki tradicional existen tres representaciones por cada página:
• El "código fuente", editable por los usuarios. Es el formato almacenado
localmente en el servidor. Normalmente es texto plano, sólo es visible para el
usuario cuando la operación "Editar" lo muestra.
• Una plantilla (puede que generada internamente) que define la disposición y
elementos comunes de todas las páginas.
• El código HTML, renderizado a tiempo real por el servidor a partir del código
fuente cada vez que la página se solicita.
El código fuente es potenciado mediante un lenguaje de marcado simplificado para
hacer varias convenciones visuales y estructurales. Por ejemplo, el uso del asterisco
"*" al empezar una línea de texto significa que se renderizará una lista desordenada
de elementos (bullet-list). El estilo y la sintaxis pueden variar dependiendo de la
implementación, alguna de las cuales también permite etiquetas HTML.
¿Por qué no HTML?
La razón de este diseño es que el HTML, con muchas de sus etiquetas crípticas, no
es fácil de leer por usuarios no técnicos. Hacer visibles las etiquetas de HTML
provoca que el texto en sí sea difícil de leer y editar para la mayoría de usuarios.
Por lo tanto se promueve el uso de edición en texto llano con unas convenciones
fáciles para la estructura y el estilo.
A veces es beneficioso que los usuarios no puedan usar ciertas funcionalidades que
el HTML permite, tales como JavaScript, CSS y XML. Se consigue consistencia en la
visualización, así como seguridad extra para el usuario. En muchas inserciones de
wiki, un hipervínculo es exactamente tal como se muestra, al contrario que en
HTML.
Estándar
Durante años el estándar de facto fue la sintaxis del WikiWikiWeb original.
Actualmente las instrucciones de formateo son diferentes dependiendo del motor
del wiki. Los wikis simples permiten sólo formateo de texto básico, mientras que
otros más complejos tienen soporte para tablas, imágenes, fórmulas, e incluso otros
elementos más interactivos tales como encuestas y juegos. Debido a la dificultad de
usar varias sintaxis se están haciendo esfuerzos para definir un estándar de
marcado (ver esfuerzos de Meatball y Tikiwiki).
Vincular y crear páginas
Los wikis son un auténtico medio de hipertexto, con estructuras de navegación no
lineal. Cada página contiene un gran número de vínculos a otras páginas. En
grandes wikis existen las páginas de navegación jerárquica, normalmente como
consecuencia del proceso de creación original, pero no es necesario usarlas. Los
vínculos se usan con una sintaxis específica, el "patrón de vínculos".

CamelCase
Originalmente la mayoría de wikis usaban CamelCase como patrón de vínculos,
poniendo frases sin espacios y con la primera letra de cada palabra en mayúscula
(como por ejemplo la palabra "CamelCase"). Este método es muy fácil, pero hace
que los links se escriban de una manera que se desvía de la escritura estándar. Los
wikis basados en CamelCase se distinguen instantáneamente por los links con
nombres como "TablaDeContenidos", "PreguntasFrecuentes".
CamelCase fue muy criticado, y se desarrollaron otras soluciones.

Free Links
Los "free links", usados por primera vez por Cliki, usan un formato tipo _(vínculo).
Por ejemplo, _(Tabla de contenidos), _(Preguntas frecuentes). Otros motores de wiki
usan distintos signos de puntuación.

Interwiki
Interwiki permite vínculos entre distintas comunidades wiki.
Las nuevas páginas se crean simplemente creando un vínculo apropiado. Si el
vínculo no existe se acostumbra a remarcar como "vínculo roto". Siguiendo el
vínculo se abre una página de edición, que permite al usuario introducir el texto
para la nueva página wiki. Este mecanismo asegura que raramente se creen
páginas huérfanas (las cuales no tienen ningún vínculo apuntando a ellas). Además
se mantiene un nivel alto de conectividad.

Búsqueda
La mayoría de wikis permite al menos una búsqueda por títulos, a veces incluso una
búsqueda por texto completo. La escalabilidad de la búsqueda depende totalmente
del hecho de que el motor del wiki disponga de una base de datos o no: es
necesario el acceso a una base de datos indexada para hacer búsquedas rápidas en
wikis grandes. En Wikipedia el botón "Ir" permite a los lectores ir directamente a
una página que concuerde con los criterios de búsqueda. El motor de MetaWiki se
creó para habilitar búsquedas en múltiples wikis.
Control de cambios
Los wikis suelen ser diseñados con la filosofía de que sea fácil corregir los errores,
en vez de que sea difícil cometerlos. Los wikis son muy abiertos, aun así
proporcionan maneras de verificar la validez de los últimos cambios al contenido de
las páginas. En casi todos los wikis hay una página específica, "Cambios Recientes",
que enumera las ediciones más recientes de artículos, o una lista con los cambios
hechos durante un periodo de tiempo. Algunos wikis pueden filtrar la lista para
deshacer cambios hechos por vandalismo.
Desde el registro de cambios suele haber otras funciones: el "Historial de Revisión"
muestra versiones anteriores de la página, y la característica "diff" destaca los
cambios entre dos revisiones. Usando el Historial un editor puede ver y restaurar
una versión anterior del artículo, y la característica "diff" se puede usar para decidir
cuándo eso es necesario. Un usuario normal del wiki puede ver el "diff" de una
edición listada en "Cambios Recientes" y, si es una edición inaceptable, consultar el
historial y restaurar una versión anterior. Este proceso es más o menos complicado
dependiendo del software que use el wiki.
En caso de que las ediciones inaceptables se pasen por alto en "Cambios
Recientes", algunos motores de wiki proporcionan control de contenido adicional. Se
pueden monitorizar para asegurar que una página o un conjunto de páginas
mantienen la calidad. Una persona dispuesta a mantener esas páginas será avisada
en caso de modificaciones, permitiéndole verificar rápidamente la validez de las
nuevas ediciones.

Vandalismo
El vandalismo consiste en hacer ediciones (generalmente hechas por
desconocidos) que borran contenido importante, introducen errores, agregan
contenido inapropiado u ofensivo (por ejemplo, insultos), o, simplemente,
incumplen flagrantemente las normas del wiki. También son frecuentes los intentos
de spam, por ejemplo:
• La introducción de enlaces en un wiki con el fin de subir en los buscadores de
Internet (véase PageRank).
• Los intentos de publicitarse o hacer proselitismo (de su ideología, religión u
otros) a través del wiki.
• Ingresar material que viola derechos de autor.
Algunas soluciones que se utilizan para luchar contra los vándalos son:
• Revertir rápidamente sus cambios, para que así se desanimen.
• Bloquearlos temporalmente por su nombre de usuario o dirección IP, de tal
forma que no puedan seguir editando. Esta solución se ve dificultada por las
IPs dinámicas y el uso de proxies abiertos, que, al ser bloqueados, pueden
resultarlo también personas inocentes.
• Si se produce siempre en una misma página, la protección de esa página.
• No permitir editar páginas sin estar registrado.
• En casos extremos (generalmente, ataques por medio de herramientas
automáticas), bloquear la base de datos del wiki, no permitiendo así ningún
tipo de edición.

Software
Existen varios programas, generalmente scripts de servidor en Perl o PHP, que
implementan un wiki. Con frecuencia, suelen utilizar una base de datos, como
MySQL.
Suelen distinguirse por:
• Destino: para uso personal, para intranets, para la web...
• Funcionalidad: pueden o no mantener historiales, tener opciones de
seguridad, permitir subir archivos, tener editores WYSIWYG...
Algunos de los más utilizados son:
• UseModWiki: el más antiguo, escrito en Perl.
• MediaWiki: utilizado en todos los proyectos de Wikimedia. Basado en PHP y
MySQL.
• PhpWiki: basado en UseMod. Escrito en PHP, puede utilizar distintas bases de
datos.
• TikiWiki: CMS completo, con un wiki muy desarrollado, usando PHP y MySQL.
• DokuWiki: Un wiki completo escrito en PHP sin necesidad de bases de datos
(usa sólo ficheros de texto)
• WikkaWiki: basado en WakkaWiki, un wiki muy ligero. Usa PHP y MySQL
• MoinMoin: Modular. Escrito en Python.
• OpenWiking: Wiki programado en ASP.

Utilidades
• Usted puede realizar búsquedas en varios wikis a la vez, incluyendo esta
web y la de Ward, utilizando un MetaWiki.
• El wiki es una práctica innovadora que ha expandido su uso, por ejemplo, a
las empresas, las que utilizan este medio para que el conocimiento adquirido
por los trabajadores pueda ser compartido y complementado por todos, se
utiliza como una herramienta que favorece la innovación.

RSS
RSS es una familia de formatos de fuentes web codificados en XML. Se utiliza para
suministrar a suscriptores de información actualizada frecuentemente. El formato
permite distribuir contenido sin necesidad de un navegador, utilizando un software
diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible
utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de
los principales navegadores permiten leer los RSS sin necesidad de software
adicional. RSS es parte de la familia de los formatos XML desarrollado
específicamente para todo tipo de sitios que se actualicen con frecuencia y por
medio del cual se puede compartir la información y usarla en otros sitios web o
programas. A esto se le conoce como redifusión web o sindicación web (una
traducción incorrecta, pero de uso muy común).

Término
Este acrónimo se usa para referirse a los siguientes estándares:
• Rich Site Summary (RSS 0.91)
• RDF Site Summary (RSS 0.9 y 1.0)
• Really Simple Syndication (RSS 2.0)
Confusión de términos fuente web y RSS
Comúnmente el término RSS es usado erróneamente para referirse a fuente web,
independientemente de que el formato de dicha fuente sea RSS o no.
Fuente web se refiere al medio de redifusión web, mientras que RSS se refiere al
formato de dicha fuente web. Originalmente el único formato de fuente web era
RSS, así que se usaban de manera indistinta ambos términos. Sin embargo,
actualmente el formato Atom es otro formato popular de fuente web.
No toda fuente web tiene formato RSS, algunas tienen formato Atom. En ocasiones,
las páginas web ofrecen una fuente web en formato Atom y erróneamente la
señalan como RSS.

Redifusión web
El principal medio de redifusión web es vía fuentes web, siendo RSS el formato más
común de fuente web.
La redifusión web no es sólo un fenómeno vinculado a los weblogs, aunque han
ayudado mucho a su popularización. Siempre se han redifundido contenidos y se ha
compartido todo tipo de información en formato XML, de esta forma podemos
ofrecer contenidos propios para que sean mostrados en otras páginas web de forma
integrada, lo que aumenta el valor de la página que muestra el contenido y también
nos genera más valor, ya que normalmente la redifusión web siempre enlaza con
los contenidos originales.
Pero lo verdaderamente importante es que, a partir de este formato, se está
desarrollando una cadena de valor nueva en el sector de los contenidos que está
cambiando las formas de relación con la información tanto de los profesionales y
empresas del sector como de los usuarios. Varias empresas están explorando
nuevas formas de uso y distribución de la información.

Fuente web
RSS fue el primer formato de fuente web y sigue siento el más común. Es un
formato tan popular que es común que el término RSS es usado erróneamente para
referirse a fuente web, independientemente de que el formato de dicha fuente sea
RSS o no.

Agregadores
Gracias a los agregadores o lectores de fuentes web (programas o sitios que
permiten leer fuentes web) se pueden obtener resúmenes de todos los sitios que se
desee desde el escritorio del sistema operativo, programas de correo electrónico o
por medio de aplicaciones web que funcionan como agregadores. No es necesario
abrir el navegador y visitar decenas de webs.

Das könnte Ihnen auch gefallen