Sie sind auf Seite 1von 25

FACULTAD DE PSICOLOGÍA, RELACIONES INDUSTRIALES Y CIENCIAS DE LA

COMUNICACIÓN
ESCUELA PROFESIONAL DE CIENCIAS DE LA COMUNICACIÓN

 ASIGNATURA:

TECNOLOGIA DE LA INFORMACION

 ESTUDIANTE:
Mamani Calsin Yordan Erick
 TURNO:
Mañana 3 “A”
 PROFESOR DE CURSO:

Lic. Raul Llanos Palomino


Arequipa – Perú
-2018-
TRABAJO N°1
La ley de la transparencia
En los últimos días, todos los medios de comunicación del país han hablado de la entrada en vigor de la
denominada Ley de Transparencia (Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la
información pública y buen gobierno). Y entra en vigor un año después de su aprobación. Pero ¿sabemos
realmente para qué sirve, o qué aspectos regula?

Esta ley tiene un triple objetivo:

1º) Garantizar el derecho de los ciudadanos a acceder a la información.

2º) Obligar a las distintas administraciones a ser transparentes.

3º) Fiscalizar la actividad pública, es decir, establecer las obligaciones de buen gobierno que deben cumplir
los responsables públicos así como las consecuencias jurídicas derivadas de su incumplimiento.

En cuanto al primer objetivo, ya la propia Constitución en su art. 105.b establece que “la ley regulará: b) El
acceso de los ciudadanos a los archivos y registros administrativos, salvo en lo que afecte a la seguridad y
defensa del Estado, la averiguación de los delitos y la intimidad de las personas”; de igual forma que el art.
37 de la Ley 30/92 afirma que “Los ciudadanos tienen derecho a acceder a la información pública, archivos
y registros en los términos y con las condiciones establecidas en la Constitución, en la Ley de transparencia,
acceso a la información pública y buen gobierno y demás leyes que resulten de aplicación”: En ambos casos
se establece una remisión a una ley que ya está en vigor, y no es otra que la referida Ley 19/2013, Ley de
Transparencia.
Como dato de interés, y para aclarar que esta nueva ley no es una “novedad”, es interesante saber que, a
nivel de Derecho comparado, España ha sido uno de los últimos países en incorporar una ley de
transparencia a su ordenamiento jurídico, ya que actualmente sólo Chipre y Luxemburgo carecen de ella. El
ejemplo más paradigmático en este sentido (como en otros), lo encontramos en Suecia, donde en el año
1776, Anders Chydenius, un sacerdote sueco-finlandés impulsó la primera ley de acceso a la información
gubernamental, la denominada “Ley para la Libertad de Prensa y del Derecho de Acceso a las Actas
Públicas”.

Es el segundo objetivo, en tanto que las administraciones se obligan a ser transparentes, donde esta ley
produce un claro avance en la configuración de todas aquellas obligaciones de publicidad activa que deben
vincular a un gran número de sujetos, entre los que se encuentran todas las Administraciones Públicas, así
como los órganos del Poder Legislativo y Judicial, junto a todos los órganos constitucionales, de igual modo
que su aplicación a aquellas entidades que, bien debido a su especial relevancia pública, o bien por su
condición de perceptores de fondos públicos, se encuentran debidamente obligados a un reforzamiento de la
transparencia en su actividad.
Ahora bien, se habla de publicidad activa, pero ¿qué es significa ese término? La publicidad activa es una
información agrupada en las categorías que se definen en la ley, y que las administraciones públicas deberán
publicar periódica y actualizadamente, de forma que se pueda garantizar la transparencia de su actividad.
El tercer objetivo menciona las obligaciones de buen gobierno que deben cumplir los responsables públicos,
junto a las consecuencias jurídicas que se derivan de su incumplimiento.

Una vez determinada qué regula la Ley de Transparencia y su triple objetivo, numerosas preguntas pueden
asaltarnos en cualquier momento, relativas a las entidades obligadas a proporcionar información, qué
contiene el llamado Portal de la Transparencia o si existen límites a la publicación de la información.

Sobre las entidades obligadas a proporcionar información, diremos que son todas las Administraciones
Públicas, entidades del sector público, órganos constitucionales (incluida la Casa de SM el Rey),
Fundaciones del Sector Público, Asociaciones constituidas por Administraciones Públicas o Sociedades
Mercantiles con participación pública mayoritaria, junto a los partidos políticos, sindicatos, organizaciones
sindicales y otras entidades que perciban ayudas públicas.

Hemos conocido, estos días, la aparición de una página web denominada “Portal de la Transparencia”, que
es la plataforma a través de la cual se podrá acceder a la información de la Administración General del
Estado, conteniendo igualmente estadísticas acerca de la información que los ciudadanos soliciten con
mayor frecuencia en ejercicio del derecho de acceso a la información pública.
Qué límites existen a la obligación de publicación de la información. Siempre que afecte a cuestiones
sensibles como la seguridad nacional, la defensa o la protección de datos personales. En todos estos casos,
debe llevarse a cabo una comprobación para verificar si, la publicación afecta a los límites que la Ley prevé
o, para el caso de los datos personales, si éstos pueden eliminarse del documento que se publique. ¿Y si un
ciudadano solicita información y se le deniega? En tal caso, podrá presentar una reclamación ante el Consejo
de Transparencia y Buen Gobierno, que es un órgano independiente y es el encargado de velar por el
correcto cumplimiento de las disposiciones de la Ley, salvaguardando el ejercicio de derecho de acceso a la
información pública y garantizando la observancia de las disposiciones de buen gobierno.

Por tanto, y resumiendo, parece (a expensas de conocer de forma práctica el funcionamiento de la


“transparencia normativa”), que los ciudadanos podrán conocer más y mejor –aunque no de forma absoluta-
el destino de gran parte de los fondos públicos, algo que la sociedad viene reclamando constantemente.
TRABAJO N°2
Nanotecnologia
La nanotecnología es la manipulación de la materia a escala nanométrica. La más temprana y
difundida descripción de la nanotecnología12 se refiere a la meta tecnológica particular de
manipular en forma precisa los átomos y moléculas para la fabricación de productos a
microescala, ahora también referida como nanotecnología molecular. Subsecuentemente una
descripción más generalizada de la nanotecnología fue establecida por la Iniciativa
Nanotecnológica Nacional, la que define la nanotecnología como la manipulación de la materia
con al menos una dimensión del tamaño de entre 1 a 100 nanómetros.En esta definición refleja el
hecho de que los efectos de la mecánica cuántica son importantes a esta escala del dominio
cuántico y, así, la definición cambió desde una meta tecnológica particular a una categoría de
investigación incluyendo todos los tipos de investigación y tecnologías que tienen que ver con las
propiedades especiales de la materia que ocurren bajo cierto umbral de tamaño. Es común el uso
de la forma plural de "nanotecnologías" así como "tecnologías de nanoescala" para referirse al
amplio rango de investigaciones y aplicaciones cuyo tema en común es su tamaño. Debido a la
variedad de potenciales aplicaciones (incluyendo aplicaciones industriales y militares), los
gobiernos han invertido miles de millones de dólares en investigación de la nanotecnología. A
través de su Iniciativa Nanotecnológica Nacional, Estados Unidos ha invertido 3.700 millones de
dólares. La Unión Europea ha invertido[cita requerida] 1.200 millones y Japón 750 millones de
dólares.3

Nano es un prefijo griego que indica una medida (10-9 = 0,000 000 001), no un objeto; de
manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y
cohesionado exclusivamente por la escala de la materia con la que trabaja.

La nanotecnología definida por el tamaño es naturalmente un campo muy amplio, que incluye
diferentes disciplinas de la ciencia tan diversas como la ciencia de superficies, química orgánica,
biología molecular, física de los semiconductores, microfabricación, etc.4 Las investigaciones y
aplicaciones asociadas son igualmente diversas, yendo desde extensiones de la física de los
dispositivos a nuevas aproximaciones completamente nuevas basadas en el autoensamblaje
molecular, desde el desarrollo de nuevos materiales con dimensiones en la nanoescalas al control
directo de la materia a escala atómica.

Actualmente los científicos están debatiendo el futuro de las implicaciones de la nanotecnología.


La nanotecnología puede ser capaz de crear nuevos materiales y dispositivos con un vasto
alcance de aplicaciones, tales como en la medicina, electrónica, biomateriales y la producción de
energía. Por otra parte, la nanotecnología hace surgir las mismas preocupaciones que cualquier
nueva tecnología, incluyendo preocupaciones acerca de la toxicidad y el impacto ambiental de los
nanomateriales,5 y sus potenciales efectos en la economía global, así como especulaciones acerca
de varios escenarios apocalípticos. Estas preocupaciones han llevado al debate entre varios
grupos de defensa y gobiernos sobre si se requieren regulaciones especiales para la
nanotecnología.
TRABAJO N°3
GACHE
El desarrollo y la evolución de la radio como medio de comunicación tiene distintas aristas
observables. Las hay económicas, sociales, políticas y también, claro, tecnológicas. Por este
último aspecto resulta simple e ilustrativo comenzar el recorrido histórico por esta industria
centenaria.

La radio como tecnología de comunicación es el producto de distintos avances e investigaciones


científicas en el campo de la difusión de información con ondas electromagnéticas. Entre los
muchos nombres que se encuentran ligados al descubrimiento y transformación de la tecnología
en medio se encuentran los de Guillermo Marconi, Nikola Tesla, Heinrich Hertz, Alexander
Popov y Reginald Fressenden.

Cada uno desde su campo de experimentación fue el encargado de sumar los aportes necesarios
para la transmisión de sonidos a través del aire a distancias kilométricas. El trabajo de
investigación fue desarrollado en paralelo por distintas personas, con distintas especialidades, con
diferentes métodos de trabajo y con diversos orígenes geográficos. Podría decirse que la radio es
un descubrimiento universal.

Los primeros actores interesados en el desarrollo de este instrumento de comunicación a distancia


e inalámbrico fueron los gobiernos. Con la expansión militar en los albores de la Primera Guerra
Mundial y la desconexión de muchas líneas telegráficas intercontinentales, la radio apareció
como la posibilidad de intervenir comunicaciones y enviar mensajes entre puntos alejados gracias
a la onda corta.

En la previa a la implantación de la radio como medio de comunicación masiva, convivían en el


aire tres tipos de usos de esta tecnología: la experimentación con música y noticias de los
radioaficionados; los mensajes militares producidos por los Estados; y la comunicación marítima.
Con la guerra en curso, los investigadores, aficionados y desarrolladores tecnológicos pasaron a
trabajar en empresas privadas o en el Ejército. El final de la guerra permitió la ebullición artística,
informativa y social de la radio. Su uso para propaganda y relato durante la Primera Guerra
Mundial sembró el germen de la radiodifusión.
Terminado el conflicto, grandes empresas estadounidenses como la General Electric, la AT&T,
Western Union y United Fruit se lanzaron a la disputa por el mercado de los componentes y
dispositivos de radio para la comunicación interoceánica y comercial. El negocio todavía no
estaba proyectado sobre la emisión sino en la fabricación de aparatos y en la competencia con los
cables y el teléfono. Con este fin se creó la Radio Corporation of America (RCA), un cartel de
fabricantes y dueños de patentes que se decidieron a tomar el control del mercado y a expulsar a
la American Marconi, de origen británico, con el guiño del gobierno.

Las primeras emisiones más “radiofónicas” estuvieron en manos de diarios estadounidenses con
interés por reflejar distintos eventos deportivos y políticos. Es en ese contexto que otra empresa
fabricante de tecnología y aparatos, la Westinghouse Electric Company, experimenta con la
estación KDKA en la ciudad de Pittsburgh, a instancias del diario local. Esto sucede en
noviembre de 1920. Un año más tarde, la empresa se une al cartel de la RCA y la radioemisión, o
radiodifusión, se transforma en el motor del negocio de la venta de componentes y dispositivos
finalizados.
Los acontecimientos deportivos son la principal herramienta de promoción de unos contenidos
que buscan fomentar la compra de equipamiento y dispositivos, tanto para emisores como para
receptores. Rápidamente la radio se disemina y deja de ser un experimento de especialistas o un
lujo de clubes de elite. El abaratamiento de los equipos y el aumento de las transmisiones
regulares funcionan como apalancadores de la socialización de la radiofonía. A esto se le suma el
fuerte carácter oral de la cultura popular, la capacidad de acceder a entretenimiento de manera
libre y sin necesidad de saber leer.

El Estado toma control del aire y diferencia la radiodifusión de la radiotelegrafía a través del
régimen de
licencias. El modelo de negocio de las primeras emisoras tarda en consolidarse. En un principio,
el filantropismo de los radioaficionados o la experimentación de la prensa diaria fueron claves.
Luego, la llegada de la RCA marcó el financiamiento de los contenidos con la venta de
equipamiento. Poco tardaron en buscarse otras fuentes de ingresos y emergieron tres alternativas:
el alquiler del tiempo de aire a cualquiera que tuviese algo que decir (modo propaladora); la venta
de programas para retransmisión en cadena y la publicidad.

A un lado del Atlántico, la RCA crea en 1926 la National Broadcasting Company (NBC) que,
dirigida por David Sarnoff, genera ingresos vía cobro a pequeños emisores por retransmitir sus
programas. La Columbia Broadcasting System (CBS) nació en 1928. Con William Paley, dueño
de una tabacalera con crecimiento en las ventas luego de publicitar en medios, forjó un modelo
de división de ganancias con las filiales de su cadena para generar mayor cantidad de público y
vender más caros los espacios publicitarios. Rápidamente se expande un modelo de transmisión
en cadena, con ingresos publicitarios por programas patrocinados, asalarización de los
trabajadores y división entre emisoras de noticias y de entretenimiento (la NBC crea la cadena
Blue y la Red con ese fin).

Surgimiento de la radio en Estados Unidos y en Gran Bretaña

Elaboración Propia1

Al otro lado, en Gran Bretaña el Estado dirige el desarrollo del medio. En 1922, con la
participación de la corona y de los principales fabricantes de dispositivos, se funda la British
Broadcasting Company (BBC). De carácter privado y comercial, este consorcio monopolizó las
patentes para la fabricación y venta de aparatos. Sólo podían acceder a los contenidos producidos
aquellos que adquirieran los dispositivos oficiales de la BBC y pagaran un canon anual. En una
primera etapa, los diarios británicos pagaban a la BBC para producir sus programas. Esto cambió
en 1926 cuando se optó por la disolución del consorcio y su sustitución por un ente estatal
autónomo.

Desarrollo de la industria radiofónica en Argentina

El descubrimiento de la radio en Argentina también está ligado a la actividad de los aficionados.


El primer autorizado por la Marina para realizar estos experimentos “sociales” fue Teodoro
Bellocq en 1913.

Desde ese momento se sucedieron distintos experimentos e investigaciones en emisión y


recepción que culminarían el 27 de agosto de 1920 con la primera transmisión “radiofónica”.
Estuvo a cargo de la autodenominada Sociedad Radio Argentina, compuesta por un grupo de
radioaficionados conocidos como “Los Locos de la Azotea” por haber realizado esta experiencia
desde ese lugar del Teatro Coliseo porteño

Este nacimiento experimental y privado de la radio se da a espaldas del Estado que la considera
una actividad militar. La Marina es la encargada de impartir las autorizaciones correspondientes.
En materia de contenidos, la radio tiene un modelo de retransmisión de otros eventos —
musicales y deportivos principalmente—. La conformación de un sistema-mercado radiofónico y
su forma de financiamiento también fueron producto de la acción y omisión del Estado.

Buena parte de los propietarios de las emisoras eran comerciantes de aparatos o ingenieros
(Prieto, Devoto, Gaché, Yankelevich) mientras que algunos aficionados aún disputaban la
posibilidad de desarrollar el medio con fines culturales y educativos. Para 1930 ya existían
grupos multi-radios que concentraban y diversificaban su oferta. Devoto y Gache (radios
Splendid, Mayo y Rivadavia), Prieto (su radio homónima, Argentina y Fénix), la Sociedad
Anónima Radio Buenos Aires (radios Brusa y La Razón) y Jaime Yankelevich (radios Nacional,
La Nación, Bernotti, Porteña y Cultura). Además, los diarios más importantes del país
participaban (cuando no eran co-propietarios) del armado de las emisoras2.

En cuanto a las fuentes de ingresos y modelo de negocio, la discusión se focalizaba en permitir o


no la venta de publicidad. La primera autorizada a esto fue Radio Cultura y rápidamente los
empresarios de gráfica se opusieron a un desarrollo publicitario del nuevo medio. En la primera
década de existencia del medio coexistieron tres modelos de ingresos: la venta de espacios
publicitarios, financiamiento cruzado por venta de aparatos y filantropía de radioaficionados. La
figura de Jaime Yankelevich terminaría por definir no sólo el modelo de ingresos sino también el
artístico.

Evolución del sistema radiofónico argentino

Elaboración propia.3

Como vendedor y reparador de aparatos eléctricos, Yankelevich llegó a Radio Nacional (emisora
privada) para reparar el transmisor. Su pago fue hecho con publicidades. Como bien cuenta
Matallana4, la masiva concurrencia a su negocio luego de pautar avisos en distintas radios lo
convenció del potencial comercial del medio. En 1927, compró Radio Nacional (que
posteriormente transformaría en la mítica Radio Belgrano) y cambió la historia de la radio
argentina.

Con el modelo de la retransmisión en cadena tomado de la NBC y el de la venta de espacios


publicitarios de la CBS, Yankelevich comenzó a generar un nivel de ingresos que le permitieron
profesionalizar las distintas instancias de producción.

La explotación comercial de la radio hace evolucionar al medio del modo retransmisión a la


construcción de contenidos radiofónicos. Los músicos comienzan a cobrar por sus actuaciones en
los estudios y la música grabada se corre a un lugar secundario. Las emisoras definen géneros
propios como los radioteatros y los shows de noticias. Esto es acompañado por la
profesionalización de la locución, el armado de grandes elencos de ficción y la separación entre
conocimientos técnicos y artísticos al frente de los micrófonos. La radio se mete de lleno en la
vida social argentina al comenzar la década del 30.

El rol del Estado hasta este momento queda relegado al control de los alcances de las emisoras, el
establecimiento de manuales o reglamentos de radiocomunicaciones, el traspaso de la actividad
del campo militar a las comunicaciones (Correos y Telégrafos más específicamente) y el
lanzamiento, por iniciativa privada, de las primeras emisoras estatales: Radio Municipal (1927),
Provincia (1937) y LRA Estación de Radiodifusión del Estado (1937).

La edad de oro

Para 1940 la estructura de la radio argentina se dividía en tres cadenas con cabeceras porteñas de
penetración nacional: Radio Belgrano encabezaba la Cadena Argentina de Broadcasting SACI y
era propiedad de Jaime Yankelevich; Radio El Mundo hacía lo propio con la Red Azul y Blanca
de Emisoras Argentinas, propiedad de la Editorial Haynes; mientras que Radio Splendid
encabezaba una red con su nombre (RADES), en poder de la Editorial La Razón. El peronismo se
encargaría de poner estas redes en manos amigas en poco tiempo5.

Durante estos años se consolidan los formatos artísticos y el importante rol de la ficción en la
programación. Se producen verdaderas integraciones verticales con entre productores teatrales,
radios, revistas especializadas (Radiolandia, Sintonía) en el nuevo medio y salas. Las figuras del
tango y el folklore comparten el protagonismo con los actores para llenar los auditorios de las
emisoras: la radio es producida y emitida en directo, es un fenómeno social y popular, es
referencia del mundo artístico y tiene una fuerte impronta de entretenimiento.

Se genera un sistema de estrellas del medio vinculado a los actores, los músicos y los principales.
Además, se consolida una programación más larga a la inicial, con mayor cantidad de horas en
vivo, con programas de una duración máxima de una hora. En estas grillas, la música comienza a
perder espacio a favor de la ficción y las noticias6. El aparato de recepción se había transformado
en un mueble más de los hogares y funcionaba como centro de esparcimiento familiar.

En materia regulatoria, en 1946 se dicta el “Manual de Instrucciones para Estaciones de


Radiodifusión” que buscaba regular principalmente los contenidos con cuotas de música nacional
o fiscalización y control de informativos, principalmente. En 1953 es el turno de la primera ley
democrática, la N° 14.241, que creó las condiciones para legalizar un sistema concentrado y
oligopólico de cadenas. Sin embargo, el golpe de Estado de 1955 suspendió las adjudicaciones y
las emisoras quedaron en manos estatales.

Antes de ser derrocado, el peronismo sembró en el sistema de medios argentino la semilla de un


fenómeno tecnológico y cultural que provocaría un sismo en la estructura de financiamiento, los
contenidos y el rol social de la radio: la televisión. Paradójicamente, el enviado por el gobierno
para equipar y preparar el lanzamiento de Canal 7, el 17 de octubre de 1951, fue Jaime
Yankelevich quien encargó la dirección general de la primera transmisión a Enrique Susini, un
“loco de la azotea”. Como se verá en Fibra 19, no será lo único que se lleve la TV.

1Postolski, Glenn (s/f). Nacimiento y organización de la radio en el siglo XX. Documento de


cátedra, disponible en: catedras.fsoc.uba.ar/gpost/material/014.doc
2Barsky, Osvaldo y Barsky, Julián (2010). Gardel: El cantor de tango. Buenos Aires, Libros del
Zorzal.
3-Rocca, Edgardo (2000). Por el éter en la década del 30’. Buenos Aires, Defensoría del Pueblo.
Disponible en: www.la–floresta.com.ar/documentos/por_el_eter.doc
– Tobi, Ximena (2008). “El origen de la radio: De la radioafición a la radiodifusión”. En:
Fernández, José (ed.) La construcción de lo radiofónico. Buenos Aires, La Crujía.
– Horvath, Ricardo (1996). Los avatares de la radio en Argentina. Revista Chasqui, 56,
CIESPAL, pp. 56-59.
– Agusti, María, Arribá, Sergio y Mastrini, Guillermo (2009). “Radio, economía y política entre
1920 y 1945: De los pioneros a las cadenas”. En: Mastrini, Guillermo (coord.) Mucho ruido,
pocas leyes: economía y política de comunicación en Argentina 1920-2007. Buenos Aires, La
Crujía, pp. 33-56.
4Matallana, Andrea (2013). Inventando la radio comercial: Apuntes para una biografía de Jaime
Yankelevich. Revista de Instituciones, Ideas y Mercados, 58, pp. 147-166.
5Arribá, Sergio (2009). “El peronismo y la política de radiodifusión (1946-1955)”. En: Mastrini,
Guillermo (coord.) Mucho ruido, pocas leyes: economía y política de comunicación en Argentina
1920-2007. Buenos Aires, La Crujía, pp. 75-104.
6Lindenboim, Federico (2013). La conformación de una radiofonía comercial en Argentina.
Revista Herramientas, 3(9), Buenos Aires, pp. 7-25

(*) Becario doctoral del CONICET. Maestrando en Industrias Culturales por la Universidad
Nacional de Quilmes (UNQ). Licenciado en Comunicación Social por la UNQ. Forma parte del
Programa de Investigación “Industrias Culturales y Espacio Público” dirigido por los Doctores
Martín Becerra, Guillermo Mastrini y Santiago Marino en la UNQ.
TRABAJO N°4
Nube Digital
El almacenamiento en nube posee las mismas características que la computación en nube con respecto a
agilidad, escalabilidad, "elasticidad" y multiposesión. Se considera que el concepto se forjó en la década de
los años 19601 por Joseph Carl Robnett Licklider. Desde esos años, la computación en nube se fue
desarrollando en varias áreas. Las implementaciones recientes se deben a la Web 2.0. Esto se debió a que las
grandes velocidades de ancho de banda y los bajos costes de almacenamiento y procesamiento no se
extendieron hasta finales de los años 1990, lo cual retrasó la implementación y el desarrollo masivo de las
soluciones basadas en computación en nube. Solo algunas entidades tenían la infraestructura para desarrollar
estos conceptos.

En 1999, llegó uno de los logros tempranos de la computación en nube, con "salesforce.com" pionera en la
entrega de aplicaciones corporativas por medio de una interfaz web. Esta compañía demostró a los
especialistas y compañías de desarrollo de software la ventaja del uso de portales web para entrega de sus
productos. FilesAnywhere también colaboró en el esquema de servicios basados en almacenamiento en
nube, que permitió a los usuarios compartir sus archivos de forma segura por Internet. Actualmente ambas
compañías ofrecen sus servicios.

Existe dificultad para definir con términos claros la arquitectura del almacenamiento en nube, pero es
claramente análogo al concepto de almacenamiento de objetos. Servicios de almacenamiento en nube
provistos por Amazon S3, productos de almacenamiento en nube de EMC Atmos y proyectos de
investigación de almacenamiento como Oceanstore2 son ejemplos claros y ofrecen pautas acerca del
almacenamiento de objetos.

Almacenamiento en nube se define como un entorno de almacenamiento compuesto por muchos recursos
distribuidos, pero actúa como uno solo con gran tolerancia a fallos porque implementa redundancia y
espejado de datos (distribución de datos), que posibilita la perpetuidad o la recuperación de la información
por sus versionalización de copias, que mejora la consistencia eventual de las réplicas de datos (consistencia
de datos).

Las necesidades son cada vez mayores, pero la necesidad de avance tecnológico condujo al sistema de nube,
denominada cloud computing o computación en la nube, por cuya virtud todos los datos de la empresa se
encuentran disponibles en Internet.
TRABAJO N°5
Dominio Jhostin
Justin.tv fue un sitio web creado por Justin Kan, Emmett Shear , Michael Seibel y Kyle Vogt a principios de
2007, que permite a cualquier persona transmitir vídeos en vivo. Posee cuentas de usuario que se denominan
canales. y los usuarios son los que deseen transmitir una amplia variedad de contenidos generados por
usuarios de vídeo en directo , llamadas emisiones. (calendario web potenciado por AJAX). El sitio utiliza
una cámara móvil adherida a una gorra de béisbol de Justin Kan. La cámara transmite video y audio de
forma continua con todo lo que Kan ve y escucha. Justin.tv comenzó a transmitir en vivo la medianoche del
19 de marzo de 2007, y de acuerdo al sitio web, Kan llevará la cámara 24 horas al día, 7 días a la semana.
Justin Kan.
Justin.tv está en competencia1 con Ustream, DaCast, Veetle , Livestream, Bambuser y Blogstar. Justin.tv ha
sido comparado con las películas EDtv, Cómo ser John Malkovich y El show de Zorak. Justin Kan describe
lo que realiza como lifecasting.2
Justin.tv continúa con la tradición de grabar una actividad desde el punto de vista del participante. Similares
proyectos que presentan transmisión en vivo vía internet las 24 horas los 7 días de la semana incluyen a
cámara web portátil inalámbrica de Steve Mann (transmisión y recepción simultánea de video por internet
con un EyeTap [2]) en 1994, JenniCam en 1996, DotComGuy en el 2000, el moblog de Joi Ito3 en el 2002,
y Gordon Bell de Microsoft.
En el 2004 Microsoft llevó a cabo una conferencia académica llamada CARPE (siglas en inglés para
Archivo y Recuperación de Experiencias Personales), acerca de la transmisión en vivo vía internet las 24
horas del día, 7 días a la semana, con la vida personal diaria.4
Detalles técnicos
Originalmente, el hardware de transmisión móvil consistía en un computador basado en Linux, cuatro
adaptadores de red USB EVDO - cuyo estándar permite transmitir la data del video a través de la red de
telefonía celular-, un codificador de video análogo a mpeg-4 producido comercialmente y una gran batería
de Ion-Litio de ocho horas de duración.

Actualmente, la configuración utiliza una tarjeta de red EVDO y un computador portátil pequeño, Sony
Vaio TX, transportado en una mochila. El video se transmite con una frecuencia de diez imágenes por
segundo, utilizando el software comercial de on2,5 además de los servicios de telecomunicación de Sprint
Nextel.
El computador es responsable de tomar los datos del video codificados desde la cámara y de enviarlos al
principal sitio web. El sistema fue desarrollado por Kyle Vogt, otro de los fundadores de Justin TV. En un
comienzo el computador presente en el sistema cargado en la mochila se recalentaba, resultando en la
detención de la transmisión del video. Esto ha sido mitigado cambiando a un laptop de hardware estándar,
con Windows XP como sistema operativo y el codificador de Adobe Media.
Aunque Justin.tv indica que la transmisión es 24 horas al día por 7 días a la semana, el video deja de
transmitir algunas veces en el día, principalmente por dificultades técnicas. Durante la noche Justin deja de
usar la cámara y cambia a una cámara grabadora fija sobre un trípode.

Actualmente justin.tv ya no está en funcionamiento debido al cierre de la página.


TRABAJO N°6
Herramienta Google
Todos sabemos que Google aparte de ser el buscador más importante, tiene muchísimas aplicaciones muy
útiles y además gratuitas. Pero, ¿sabemos cuáles son esas aplicaciones? Y más importante aún, ¿sabemos
para qué sirven?

Google Awords
El programa Google AdWords le permite crear anuncios que aparecerán en las páginas de resultados de
búsqueda de Google relevantes y en nuestra red de sitios de socios.

Google Adsence
El programa Google AdSense difiere en que publica anuncios de Google AdWords en sitios web de
particulares. De este modo, Google paga a los editores web por los anuncios que publican en su sitio en
función de los clics que los usuarios efectúan en anuncios o en impresiones de anuncios, según el tipo de
anuncio.

Google Alerts
Las alertas de Google son mensajes de correo electrónico que recibes cuando Google encuentra nuevos
resultados (por ejemplo, páginas web, noticias, etc) que coinciden con tus consultas anteriores o con algo
específico que hayas señalado.

Google Analytics
Es el sistema de estadísticas por excelencia de Google. Con él podrás medir los visitantes de tu web, la
procedencia de las visitas, las palabras clave por las que te han encontrado…

Google Blogger
Es un servicio que adquirió Google hace unos años y permite publicar un Blog o Bitácora de forma gratuita
en la red.

Google Books
Es un servicio de Google que busca el texto completo de los libros que Google escanea, convierte el texto
por medio de reconocimiento óptico de caracteres y los almacena en su base de datos en línea.
Google Calendar
Es una agenda y calendario electrónico desarrollado por Google. Permite sincronizarlo con los contactos de
Gmail de manera que podamos invitarlos y compartir eventos.

Google Docs
Es un programa gratuito basado en Web para crear documentos en línea con la posibilidad de colaborar en
grupo. Incluye un Procesador de textos, una Hoja de cálculo, Programa de presentación básico y un editor de
formularios destinados a encuestas.

Google Doubleclick Ad Planner


DoubleClick Ad Planner permite identificar los sitios web con posibilidades de atraer a su público objetivo.
A continuación, revisa el tráfico, la cobertura y otros datos clave de cada sitio para que puedas decidir dónde
anunciarte.

Google Gadgets
Conjunto de aplicaciones y widgets que ofrece Google para añadirlos a tu página web o escritorio. Incluye
traductor, calendario, juegos, noticias… La lista de gadgets es casi infinita.

Google Youtube
Creo que no hace falta explicación de Youtube, pero por si acaso alguien no lo sabía, si, Youtube pertenece
a Google.

Google Insights
Google Insights es otra herramienta online de uso libre que sirve para comprender mejor el comportamiento
de los usuarios de internet, y los volúmenes de búsquedas de diferentes queries. La utilidad de esta
herramienta a la hora de planificar nuestras acciones de online marketing.

Google Mail (GMail)


Es el servicio de correo electrónico de Google. Poca gente carece de una cuenta, y quién lo haga debe
solucionar ese problema de inmediato.

Google Places
Cada vez es mayor el número de usuarios que utilizan Internet para realizar búsquedas de empresas, por lo
que es importante asegurarse de que tu ficha de empresa se pueda encontrar fácilmente en Google.es y en
Google Maps. Google Places permite crear una ficha de empresa de calidad en solo unos minutos y de
manera totalmente gratuita.
Google+
La red social de Google, al estilo Facebook. No muy usada ni adorada pero muy útil para el posicionamiento
en Google si cuentas con una web o blog.

Google Reader
Google Reader es un lector de RSS y atom. Permite organizar y acceder rápidamente desde una interfaz
Web a todas las noticias de las páginas configuradas en el sistema que soporten. Ya explicamos en este blog
esta fantástica herramienta de forma más ampliada.

Google Translate
Sistema de traducción automática gratuito proporcionado por Google, basado en datos estadísticos para
traducir texto, documentos y páginas web a otras lenguas.

Google Trends
Herramienta de Google que muestra los términos de búsqueda más populares del pasado reciente, las
tendencias. Las gráficas de Google Trends representan con cuánta frecuencia se realiza una búsqueda
particular en varias regiones del mundo y en varios idiomas.

Google Voice
Google Voice se postula como un nuevo y gratuito intermediario entre usuarios y operadoras de telefonía, la
idea básica es la de tener un número único que “redirige” a todos los demás que tengamos, sean fijos o
móviles, particulares o del trabajo. Para entendernos, el Skype de Google.

Google Webmaster Tools


Es un paquete de servicio web, creado por Google para webmasters, en donde se permite a los webmasters
comprobar el estado de indización y optimizar la visibilidad de sus sitios web en la Internet. Tiene
muchísimas opciones, asique si eres webmaster ¡ve ahora mismo a investigar!

Por supuesto que estas no son todas las herramientas de Google, hay muchas más, pero si son las más
importantes.

Atperson Formación.
TRABAJO N°7
Gestión del conocimiento
La gestión del conocimiento (del inglés knowledge management) es un concepto aplicado en las
organizaciones. Tiene el fin de transferir el conocimiento desde el lugar donde se genera hasta el lugar en
dónde se va a emplear (Fuentes, 2010),1 e implica el desarrollo de las competencias necesarias al interior de
las organizaciones para compartirlo y utilizarlo entre sus miembros, así como para valorarlo y asimilarlo si
se encuentra en el exterior de éstas.

En el ámbito organizacional la gestión del conocimiento se enfoca en que cada uno en la organización sepa
lo que el otro conoce con el objetivo de mejorar los rendimientos de las organizaciones, según Pablo Belly2
Conceptos
El concepto de gestión del conocimiento no tiene definición única, ya que ha sido explicado de diversas
formas a través del tiempo por diferentes autores, haciendo énfasis en algunas de sus características
particulares:

La gestión del conocimiento tiene perspectivas tácticas y operativas, es más detallado que la Gestión del
Capital Intelectual, y se centra en la forma de dar a conocer y administrar las actividades relacionadas con el
conocimiento, así como su creación, captura, transformación y uso. Su función es planificar, implementar y
controlar, todas las actividades relacionadas con el conocimiento y los programas requeridos para la
administración efectiva del capital intelectual (Wiig, 1997).3
La gestión del conocimiento es el proceso que continuamente asegura el desarrollo y la aplicación de todo
tipo de conocimientos pertinentes de una empresa con objeto de mejorar su capacidad de resolución de
problemas y así contribuir a la sostenibilidad de sus ventajas competitivas (Andreu & Sieber 1999).4
La gestión del conocimiento es la función que planifica, coordina y controla los flujos de conocimiento que
se producen en la empresa en relación con sus actividades y su entorno, con el fin de crear unas
competencias esenciales (Bueno, 1999).5
La Gestión del conocimiento es la adquisición y uso de recursos para crear un entorno en el que la
información es accesible a los individuos y en el que los individuos adquieren, comparten y usan dicha
información para desarrollar su propio conocimiento y son alentados y habilitados para aplicar su
conocimiento en beneficio de la organización. (Harman and Brelade 2000).6
El conocimiento reside en el complejo sistema de procesos que da como resultado, la materialización de los
bienes o servicios (Cordero Borjas & García Fernández, 2008).7
Según Múnera y Franco (2002) citado por (García Fernández & Cordero Borjas, 2008), existen dos soportes
básicos del conocimiento:
El capital humano que interviene en los procesos de producción o de soporte organizacional (formación,
capacidades, cualidades personales, entre otras);
La información manejada en dichos procesos, que capacita a estas personas a incrementar su formación o
habilidades para el desarrollo de sus tareas.
La gestión del conocimiento, se orienta en las formas de como capturamos el conocer, se hace su
conversión, se pone a disposición de otros y se reutiliza, de ello se deriva el capital intelectual (Banco de
conocimiento explicitados).
De la fusión de estos dos soportes emerge el conocimiento. De manera, que en la medida que la estructura
organizacional facilite la sincronía entre persona e información, es que se creará un entorno de
conocimiento.[cita requerida]

Antecedentes del estudio del conocimiento


Los precursores Clásicos de la Teoría del Conocimiento se remontan a Pitágoras (480-411 a. C.) quien
afirmaba que: «El hombre es la medida de todas las cosas, de las que son en cuanto que lo son y de las que
no lo son en cuanto que no lo son».

A Platón (428-347 a. C.), quien afirmaba: «la existencia de un mundo de ideas, invariables e invisibles sobre
las que es posible adquirir un conocimiento certero».

Pero es hasta Aristóteles (384-322 a. C.), que el conocimiento se ve como: «una adquisición vía directa,
mediante la abstracción, o de forma indirecta deduciendo nuevos datos de aquellos ya sabidos, mediante las
reglas de lógica». Estas reglas, fueron expuestas sistemáticamente por él, por primera vez, como ayuda para
superar las trampas teóricas de los sofistas.

Entre los fundadores medievales se pueden mencionar filósofos como Valentine Fromm (1601-1675) con su
obra Gnosteología, de 1631, a J. Micraelius (1597-1658) con Lexicon philosophicum terminorum pilosophis
usitatorum, de 1653 y a Geor Gutke (1589-1634) con Habitus primorum principiorum seu intelligentiae, de
1666.

Como se puede observar el conocimiento, como teoría formal, parte de los estudios medievales de la
Gnosteología como una de las disciplinas en que se dividía la Metaphysica. Durante algún tiempo, la
tendencia fue usar el vocablo gnoseología, que fue empleado por primera vez en el siglo XVII, con
preferencia al de epistemología, luego, por tendencias escolásticas, se usó gnoseología en el sentido general
de teoría del conocimiento y epistemología como la disciplina que estudia los fundamentos de verdad que
hacen objetivo el conocimiento, con lo que se fundamenta la existencia y el principio del conocimiento
científico, diferenciándolo del saber, como algo que se conoce sin tener la certeza de su veracidad.

Es importante señalar que estas formas de utilizar los términos “gnoseología” y “epistemología” para
referirse a distintas ramas del estudio del conocimiento ha sido más frecuente en español, italiano,
alemánnota 1 y francés,nota 2 que en el inglés,nota 3 por lo que en este último idioma se usan los vocablos
gnoseología y epistemología indistintamente. (véase Ferrater, 2002: II. p.1470).8

Actualmente, el estudio del conocimiento se ha apartado de la línea “recta” de la investigación gnoseológica,


sobre todo en los estudios con el enfoque organizacional (BA Fuentes, 2010 pp. 104-105.),1 y desde dicha
visión Davenport y Prusak (1998: p. 6.)9 señalan que el conocimiento se produce en y entre seres humanos
ya que aunque un ordenador pueda captar y transformar datos en información, sólo el ser humano puede
convertir estos datos y esa información en conocimiento.
Como se puede intuir, el conocimiento es parte esencial del ser humano y aunque no se ha podido definir en
rigor, las investigaciones sobre el papel que juega dentro de las organizaciones y las economías tiene un
amplio repertorio de consecuencias en la teoría de la dirección y más ampliamente en la teoría económica.

Técnicas de gestión del conocimiento


Usualmente el proceso implica técnicas para capturar, organizar, almacenar el conocimiento de los
trabajadores, para transformarlo en un activo intelectual que preste beneficios y se pueda compartir.

En la actualidad, las tecnologías de información permiten contar con herramientas que apoyan la gestión del
conocimiento en las empresas, apoyando en la recolección, la transferencia, la seguridad y la administración
sistemática de la información, junto con los sistemas diseñados para ayudar a hacer el mejor uso de ese
conocimiento.

En detalle, se refiere a las herramientas y a las técnicas diseñadas para preservar la disponibilidad de la
información llevada a cabo por los individuos dominantes y facilitar la toma de decisiones, así como reducir
el riesgo. Es un mercado del software y un área en la práctica de la consultoría, relacionada a disciplinas
tales como inteligencia competitiva. Un tema particular de la administración del conocimiento es que el
conocimiento no se puede codificar fácilmente en forma digital, tal como la intuición de los individuos
dominantes que viene con años de experiencia y de poder reconocer los diversos patrones del
comportamiento que alguien con menos experiencia no puede reconocer.

El proceso de la Administración del Conocimiento, también conocido en sus fases de desarrollo como
"aprendizaje corporativo" o "aprendizaje organizacional", tiene principalmente los siguientes objetivos:

Identificar, recabar y organizar el conocimiento existente.


Facilitar la creación de nuevo conocimiento.
Apuntalar la innovación a través de la reutilización y apoyo de la habilidad de la gente a través de
organizaciones para lograr un mejor desempeño en la empresa.
La transferencia del conocimiento (un aspecto de la Administración del Conocimiento) ha existido siempre
como proceso en las organizaciones. De manera informal por medio de las discusiones, sesiones, reuniones
de reflexión, etc., y de manera formal por medio del aprendizaje, el entrenamiento profesional y los
programas de capacitación. Como práctica emergente de negocio, la Administración del Conocimiento ha
considerado la introducción del principal oficial del conocimiento, y el establecimiento de intranets
corporativos, de wikis, y de otras prácticas de la tecnología del conocimiento y de información.

Gestión del conocimiento profesional


Los profesionales de la gestión del conocimiento pueden utilizar un léxico específico para explicar la
dinámica de la transferencia del conocimiento. Por ejemplo en los diez años pasados, Internet ha visto a
grupos establecer discusiones sobre el uso del capital intelectual como valor métrico; el significado tácito
contra conocimiento explícito o más.
Diligencias del capital intelectual
La gestión corresponde al conjunto de procesos y sistemas que permiten que el capital intelectual de una
organización aumente de forma significativa, mediante la gestión de sus capacidades de resolución de
problemas de forma eficiente, la manera de generar ventajas competitivas a través del tiempo.

Si consideramos los mercados antiguos, el principal fuerte estaba sustentado en el manejo de tierras, en otras
palabras, la persona que más tierra poseía, era la que podía generar mejores productos. Recordemos la Edad
Media, los feudos y los señores feudales. En la actualidad nos encontramos en una sociedad donde los
cambios transcurren a un ritmo sorprendente. Lo que hoy día es una ventaja competitiva, mañana se
transformará en un requisito del mercado.

En la época actual, en la que mantener una ventaja es casi imposible, es donde las organizaciones deben
recurrir a métodos que permitan aumentar estas ventajas. Una de estas ventajas es el conocimiento. La
Gestión del Conocimiento tiene por objetivo administrar este conocimiento, logrando que este sea una
ventaja competitiva con respecto a sus similares. La Gestión del Conocimiento analiza desde una
perspectiva dinámica el conocimiento existente en la empresa. Esta perspectiva se complementa con las
aportaciones de la literatura de capital intelectual, que aborda el análisis del conocimiento desde un enfoque
dinámico.
En el campo empresarial, ciertas empresas como Unión Fenosa, Systematic, Carlo Bro o K3 Technologies
LLC, desarrollan e implementan programas de gestión del conocimiento y medición del capital intelectual.
TRABAJO N°8
IMEI
El IMEI (del inglés International Mobile Station Equipment Identity, identidad internacional de equipo
móvil) es un código USSD pregrabado en los teléfonos móviles GSM. Este código identifica al aparato de
forma exclusiva a nivel mundial, y es transmitido por el aparato a la red al conectarse a esta. Esto quiere
decir, entre otras cosas, que la operadora que usemos no solo conoce quién y desde dónde hace la llamada
(SIM), sino también desde qué terminal telefónico la hizo.La empresa operadora puede usar el IMEI para
verificar el estado del aparato mediante una base de datos denominada EIR (Equipment Identity Register).
El IMEI permite funciones como el bloqueo de terminales móviles en caso de robo, para lo cual
simplemente tendremos que notificar el IMEI del móvil a nuestra operadora de telefonía para que proceda su
bloqueo y así pueda impedirse la comunicación desde ese dispositivo mediante el bloqueo de llamadas.
También es posible liberar un teléfono móvil bloqueado para su uso con una nueva operadora móvil a partir
del código IMEI, independientemente de la marca o modelo. El IMEI de un aparato habitualmente está
impreso en la parte posterior del equipo, bajo la batería, en el caso de dispositivos que contienen batería
interna este puede encontrarse al reverso en la parte inferior del equipo en números pequeños, en algunos
casos también puede llegar a encontrarse en el puerto donde se introduce la tarjeta SIM (chip). Asimismo, se
puede marcar el código USSD siguiente *#06# (asterisco, almohadilla, cero, seis, almohadilla) para que
aparezca en la pantalla del dispositivo.
Estructura
El IMEI está normalizado por la 3GPP y el documento TS 23.003, tiene 15 cifras (en algunos teléfonos 14,
se omite el último dígito SPARE, normalmente un 0). Los IMEI que contengan la secuencia «17», sus 2
últimos dígitos no se emplean «00». El IMEI se subdivide en varios campos TAC, FAC, SNR y SPARE. El
código de IMEI consta de cuatro partes y sigue el siguiente esquema: XXXXXX YY ZZZZZZ W.1
La primera parte (XXXXXX), los 6 primeros caracteres, se denomina Type Allocation Code (TAC), en
donde los primeros dos dígitos indican el país de fabricación del equipo.
La segunda parte (YY) es el Final Assembly Code (FAC) e indica el fabricante del equipo.
La tercera parte (ZZZZZZ), compuesta de seis caracteres, es el número de serie del teléfono (SNR).
El último dígito (W), es el dígito verificador o Spare, usado para verificar que el IMEI es correcto.
12345610654321
EIR
La EIR (Equipment Identity Register, por sus siglas en inglés) es una base de datos en la que existe
información sobre el estado de los teléfonos móviles. Dentro de esta base de datos existen tres listas de
IMEI: la blanca, la gris y la negra. La lista blanca identifica a los equipos que están autorizados para recibir
y realizar llamadas. Esta lista debe siempre existir en el EIR, aun cuando sea la única; las otras dos son
opcionales.
La lista gris identifica a los equipos que pueden hacer y recibir llamadas, pero que pueden ser supervisados
para descubrir la identidad del usuario utilizando la información almacenada en el chip SIM.
La lista negra identifica a los equipos a los que se les impide conectarse a la red. Contiene los identificativos
de los equipos robados o utilizados de forma ilegal y también la de aquellos equipos que no pueden acceder
al sistema porque podrían producir graves problemas técnicos; por lo tanto, no pueden realizar ni recibir
llamadas.
TRABAJO N°9
10 aplicaciones con social media y
comunicación managment
Feedly
App feedlyEs una de mis aplicaciones favoritas, ya que puedes sacarle mucho provecho como curador y
fuente de contenidos. Te permite añadir y clasificar tus fuentes de información favoritas según tus propios
intereses, temas y opiniones. Desde la misma aplicación es posible compartir fácilmente los contenidos más
recientes y las últimas publicaciones de tus blogs favoritos a través de las redes sociales: Facebook, Twitter
y Google+ . También es compatible con programadores y automatizadores como IFTTT y Buffer, y se puede
sincronizar con otras aplicaciones como Pocket, Instapaper y Evernote.

Slideshare
App SlideshareEs la red social de las diapositivas y contenidos por excelencia. Te permite subir archivos en
Power Point y visibilizarlos en la web con un formato atractivo, fácil de leer en dispositivos móviles y de
compartir en redes sociales. Además, te da estadísticas de visualización, puedes descargar el material (si lo
autorizas) y hacer o recibir comentarios. Otras dos posibilidades que te ofrece Slideshare son:
Hacer un seguimiento de tus fuentes y referentes favoritos (y te avisa cuando hay nuevas publicaciones).
Clasificar tus contenidos por categorías e intereses para compartirlos, insertarlos en tu blog o publicarlos en
tu perfil de Linkedin.

Pocket
App pocketEs uno de los agregadores de favoritos más prácticos ya que puedes guardar contenidos en
formato post, vídeo o imagen para verlos más adelante, incluso sin conexión a Internet. Puedes clasificar tus
feeds por etiquetas y compartirlos en redes sociales. También puedes asociar la aplicación a tu correo
electrónico para enviar tus materiales favoritos a tus contactos vía email y compartir contenido de valor con
tus lectores. Tiene una sección llamada Highlights que te ayuda a encontrar más rápidamente los contenidos
más interesantes según los lectores y te hace sugerencias de temas relacionados con las categorías, webs y
autores más relevantes.

Stumbleupton
Es una aplicación que integra una red social y una aplicación de marcadores de favoritos de páginas y
artículos de interés. También funciona como extensión en tu navegador. Desde ella puedes actualizarte y
distribuir contenidos propios o ajenos escogiendo, de una manera fácil y directa, los temas afines a tu marca
o a los gustos de tu audiencia. Te permite crear listas de intereses y de usuarios, con lo que puede ser una
aliada perfecta en la estrategia de difusión de contenidos con tu público objetivo. Es compatible con las
principales redes sociales (Twitter, Facebook y Google Plus) y con programadores como Buffer.
Storify
Puedes crear tus propias historias y hacer resúmenes con información que puedes obtener o rastrear desde el
buscador de la herramienta. Te permite recopilar, combinar, guardar y compartir una gran cantidad de
contenido en diferentes formatos y desde distintas redes, buscadores y plataformas online. Puedes añadir
páginas web y todo tipo de material audiovisual (fotos, vídeos, gifs animados, tweets, textos, etc) para luego
reagruparlos según tu interés y crear un nuevo contenido de valor para tu audiencia. Te permite, además,
distribuir tus resúmenes o historias en redes sociales, citando las fuentes para obtener más interacción y
alcance.

Medium
App MediumEs una red social que ha empezado fuerte y que funciona también como extensión en
dispositivos móviles. Puede ser una gran aliada como fuente de noticias y como plataforma de curación de
contenidos. Funciona con etiquetas y temas específicos, en los que puedes encontrar y compartir contenido.
Creada por los fundadores de Twitter, tiene el mismo objetivo de poder compartir contenido de valor, pero
en un formato superior a 140 caracteres. Esta idea ha hecho que la aplicación tenga una gran acogida entre la
comunidad bloguera, tanto por la facilidad de uso como por su formato novedoso, diáfano, sin pop-ups ni
contenidos comerciales.

Delicious
App DeliciousEs una de las plataformas de gestión de marcadores sociales (enlaces) más conocidas y
utilizadas a nivel mundial. Los links que guardas en ella son públicos dentro de la propia aplicación, lo que
invita a ver y compartir contenidos propios, ajenos y de influencers. También puedes saber cuántas veces
han sido compartidos los enlaces, estableciendo un ranking de los más populares, lo que te permite
conseguir recomendaciones y visitas a tu web. Funciona a través de etiquetas y palabras clave para la
búsqueda de nuevos feeds y contenidos relevantes.

BuzzFeed
App buzzfeedEs una aplicación de noticias para estar informado y saber qué temas serán tendencia en las
redes sociales. Tiene un menú que puedes configurar con las materias, las etiquetas y las tendencias que
quieres seguir. Además, se sincroniza con todos tus dispositivos. También te permite:

compartir las noticias e imágenes en redes sociales y por email,


interactuar dando tu opinión,
y guardar como favoritas las historias que quieres volver a leer.

Flipboard
App flipboardEs otra aplicación móvil que funciona como gestor de contenidos y fuente de información. La
novedad es que puedes crear una revista tipo magazine con tus contenidos favoritos para que otras personas
puedan ver y opinar sobre tu selección, con un formato muy atractivo. Es muy útil a la hora de recopilar
contenidos, ver y opinar sobre otras fuentes. Puedes subir los artículos de tu blog y agruparlos en formato
revista. Una opción diferente, original y sugerente de mostrar tu material.
TRABAJO N°10
Desde hace un tiempo, en los medios cada vez se habla más de la denominada Deep Web o Dark
Web. Casi siempre se hace para relacionarla con actividades criminales que se realizan en las
profundidades de la red, y muy pocas veces se paran a explicar qué es realmente esa Dark Web.
Un ejemplo de ello es que la llaman Deep Web, un término erróneo en la mayoría de los casos.

Por eso hoy vamos a intentar explicarte de una manera sencilla y entendible qué es exactamente
la Dark Web, y cual es su diferencia con la Deep Web. Y si tienes curiosidad, también te diremos
cómo descargarte y utilizar un navegador especialmente creado para navegar en ella.
Deep Web, un término erróneo en la mayoría de los casos.

Por eso hoy vamos a intentar explicarte de una manera sencilla y entendible qué es exactamente
la Dark Web, y cual es su diferencia con la Deep Web. Y si tienes curiosidad, también te diremos
cómo descargarte y utilizar un navegador especialmente creado para navegar en ella.

¿Qué es exactamente la Dark Web?

Para entender qué es la Dark Web tienes que entender cuatro conceptos diferentes: Clearnet,
Deep web, Dark web y Darknet. El más fácil de entender es el de la Clearnet, que es el Internet
tal y como lo conoces, las páginas que encuentras en Google y otros buscadores y a las que
puedes acceder directamente desde ellos. Por ejemplo, Xataka es una página de la Clearnet, ya
que si la googleas la encuentras rápidamente, y si introduces su dirección web no tienes
problemas para entrar.

El ~90% del contenido de la red no es accesible a través buscadores. Eso es una parte de la Deep
Web, que engloba toda la información a la que no puedes acceder públicamente. Puede tratarse
de páginas convencionales protegidas por un paywall, pero también archivos guardados en
Dropbox, correos guardados en los servidores de tu proveedor, y todas esas páginas que se crean
durante unos instantes, por ejemplo, cuando configuras un buscador de viajes y te muestra el
contenido.
Imagínate por ejemplo una página a la que accedes escribiendo una dirección web convencional,
pero a cuyo contenido no puedes acceder si no pagas una determinada cuota o una mensualidad.
Eso es Deep Web. También lo es la página que se genera cuando estás utilizando un buscador de
viajes. Es una web única configurada con los datos que has introducido, y a la cual no se puede
acceder de forma directa.

Si la Deep Web es el 90% de Internet, la Dark Web ocuparía únicamente el 0,1% de ella. Es una
porción de Internet intencionalmente oculta a los motores de búsqueda, con direcciones IP
enmascaradas y accesibles sólo con un navegador web especial.

La Dark Web por lo tanto forma parte de la Deep Web, pero son cosas diferentes. Por ejemplo, si
la Deep Web fuera una ciudad, la Dark Web serían varios barrios. Forman parte de la ciudad,
pero no son la ciudad.
La Dark Web es el contenido que puedes encontrar en diferentes Darknets, que son cada una de
las redes a las que sólo puedes acceder con programas específico. La más popular es TOR, pero
también tienes a Freenet, I2P o ZeroNet. Cada una de estas es una Darknet, pero cuando nos
referimos a todas en general utilizamos el término Dark Web.
TRABAJO N°11
ISDB-T
Principales características
 Transmisión de un canal HDTV y un canal para teléfonos móviles dentro de un ancho de banda de 6 MHz,
reservado para transmisiones de TV analógicas.
 Permite seleccionar la transmisión entre dos y tres canales de televisión en definición estándar (SDTV) en
lugar de uno solo en HDTV, mediante el multiplexado de canales SDTV. La combinación de estos servicios
puede ser cambiada en cualquier momento.
 Proporciona servicios interactivos con transmisión de datos, como juegos o compras, vía línea telefónica o
Internet de banda ancha. Además soporta acceso a Internet como un canal de retorno. El acceso a Internet
también es provisto en teléfonos móviles.
 Suministra EPG (Electronic Program Guide, o guía electrónica de programas)
 Provee SFN (Single Frequency Network, Red de una sola frecuencia) y tecnología on-channel
repeater (repetición en el canal). La tecnología SFN hace uso eficiente del espectro de frecuencias.
 Puede recibirse con una simple antena interior.
 Proporciona robustez a la interferencia multiruta, causante de los denominados "fantasmas" de la televisión
analógica y a la interferencia de canal adyacente de la televisión análoga. Sin embargo, según los criterios
de planificación de la UIT R BT-1368-6, esta norma presenta la menor robustez a la interferencia de
canales adyacentes analógicos ya que presenta de 31 a 33 dB, frente 32 a 38 dB del sistema DVB-T y 48 a
49 dB del sistema ATSC. Mientras mayor sea esta cifra, mejor es la robustez.
 Proporciona mayor inmunidad en la banda UHF a las señales transitorias que provienen de motores de
vehículos y líneas de energía eléctrica en ambientes urbanos. Estas señales transitorias se concentran
primariamente en las bandas de VHF, siendo más intensas en las gamas bajas como las Bandas I y II (54 a
88 MHz). Por esta razón, Brasil, desechó utilizar dichas bandas e informó que la banda III sería
abandonada a la mayor brevedad posible. Japón también abandonará las bandas de VHF a partir del año
2011. Sin embargo, Brasil anunció hace poco que está efectuando pruebas de ISDB-Tb en VHF (canales 7
al 13) con vistas a la viabilidad de la transmisión de ISDB-Tb en esta banda.1

 Permite la recepción de HDTV en vehículos a velocidades por sobre los 100 km/h. La norma DVB-T solo
puede recibir SDTV en vehículos móviles, previo contrato con el operador e inicialmente se afirmaba que
las señales ATSC no pueden ser recibidas en vehículos móviles en absoluto. Sin embargo, desde 2007 hay
reportes de recepción exitosa de ATSC en computadoras portátiles usando receptores USB en vehículos
móviles. Actualmente ATSC viene desarrollando un estándar de televisión móvil/portátil denominado ATSC-
M/H que está en proceso final de aprobación. La norma China DTMB también permite varios programas
móviles tanto compartidos con TV fija como llenando el canal, aunque se encuentra en etapa experimental.
 Incorpora el servicio de transmisión móvil terrestre de audio/video digital denominado 1seg (One seg).
"1seg" fue diseñado para tener una recepción estable en los trenes de alta velocidad en Japón. Aunque
todas las normas digitales existentes permiten la ventaja de transmitir en forma gratuita a televisores fijos y
simultáneamente a móviles, en el sistema "1seg" al permitir la transmisión directa y gratuita a celulares, las
empresas televisoras no tienen la facultad de elegir otro modelo distinto, obligándolas a la gratuidad del
servicio para móviles.
Receptor TV, decodificadores y receptores móviles
Existen dos tipos de receptor del sistema: el decodificador o adaptador y el televisor. La relación de aspecto de
la televisión ISDB es de 16:9; los televisores que cumplen estas especificaciones son llamados Hi-vision TVs.
Existen 6 tipos de televisor: CRT, Pantalla de plasma, LCD, DLP, Pantalla LED y Pantalla 3D..
Los conectores de la parte trasera del decodificador van desde uno para el Home Cinema, Entrada Óptica de
Audio Digital, una entrada IEEE 1394, entre muchas otras. 1seg es un servicio de transmisión de audio/video
digitales terrestres móviles y datos. El servicio comenzó experimentalmente en 2005, y oficialmente el 1 de abril
de [2006]. El primer teléfono móvil para 1seg fue vendido por KDDI en el otoño boreal de 2005. La transmisión
digital terrestre en Japón (el ISDB-T) se diseñó para que cada canal se dividida en 13 segmentos (más un
segmento para separar los canales). La transmisión de HDTV ocupa 12 segmentos, y el segmento 13 se usa
para los receptores móviles. Así el nombre,' 1seg.' La transmisión 1seg usa vídeo H.264 y audio AAC,
encapsulados en canales MPEG2. 1seg, como ISDB-T también usa 64QAM para la modulación, con una
relación de 1/2 FEC a 1/8. La resolución máxima de vídeo es de 320 x 240 pixeles, y el máximo de transporte
de vídeo es de 128 kbit/s. El audio conforma un perfil AAC-LC, con máx de transporte de 64 kbit/s. La
transmisión de datos adicionales usando BML (EPG, servicios interactivos, etc.) ocupa el resto de 60 kbit/s. Los
accesos condicionales y control de copiado no existen en la transmisión 1seg, sin embargo cada fabricante de
receptores puede limitar la función de grabado. Por ej., el receptor W33SA solo permite registrar la transmisión
1seg a la memoria interna, y bloquea la copia o traslado a tarjetas externas miniSD.

Compresión de vídeo y audio


El ISDB ha adoptado el MPEG-2 para la compresión de vídeo y audio. Los estándares ATSC y DVB adoptaron
también el mismo sistema. DVB e ISDB permiten también el uso de otros métodos de compresión de video,
incluyendo MPEG-4 y JPEG, aunque este último es solamente una parte requerida por el estándar MHEG. La
versión japonesa-brasilera, el ISDB-Tb, usa para la transmisión digital el MPEG-4 y el audio en HE-AAC. La
mayoría de los países de América del Sur han adoptado el ISDB-Tb con tales modificaciones. En paralelo se
continúa el desarrollo del 4K.2

Transmisión
El ISDB utiliza distintos sistemas de modulación para hacer más efectiva su llegada al usuario, dependiendo de
los requerimientos de las bandas de frecuencia. ISDB-S (satelital) que usa la banda de 12 GHz usa modulación
PSK, la transmisión de audio en 2.6 GHz usa CDM e ISDB-T (en bandas VHF y UHF) usa COFDM con
PSK/QAM.

Interacción
Para la interactividad el ISDB define conexiones de datos con Internet como canal de retorno sobre distintos
medios (10Base-T/ 100 Base T, módem, teléfono celular, LAN Inalámbrico (IEEE 802.11) y con diferentes
protocolos. Esto se usa, por ejemplo para guía electrónica de programas (EPG) y transmisión de datos.

Interfaces y cifrado
La especificación ISDB describe varias interfaces (de red), pero la más importante es la Interfaz Común para
el Acceso Condicional(CAS) (ARIB STD-B25) con un CAS llamado MULTI2 que se necesita para descifrar la
televisión. Una interface para recepción móvil está siendo considerada [cita requerida].
ISDB soporta una tecnología llamada "administración de derechos y protección" (Rights management and
protection), ya que debido a que el sistema es completamente digital, un DVD o grabador de alta definición
podría copiar fácilmente el contenido.
TRABAJO N°12
SISTEMA BRASILEÑO, JAPONES INSTALADO EN
PERU CARACTERISTICA
El Ministro de Transportes y Comunicaciones, Enrique Cornejo, informó hoy que nuestro país adoptará la norma
japonesa brasilera de Televisión Digital Terrestre (TDT) y que el proceso de adecuación se implementará a este
sistema a partir del año 2011.

Esta decisión que permitirá a los más de 6 millones de televisores del país poder adaptarse para recibir la señal
digital se ha tomado en base a las recomendaciones de la Comisión Multisectorial encargada de elegir el
estándar más conveniente para el país.

Entre los sistemas evaluados por el MTC figuran el norteamericano (ATSC), el europeo (DVB-T), el
japonés/brasilero (ISDB-T) y el chino.

La comisión Multisectorial, que se constituyó el 21 de febrero del 2007 y estuvo conformado por un representante
del MTC, de la Producción y de Relaciones Exteriores, de la PCM y del Consejo Consultivo de Radio y Televisión
(Concortv), entregó en febrero de este año un informe que recomendaba al MTC el modelo a seguir.

"Es una decisión de gran trascendencia y representa un paso a la modernidad del país", destacó el ministro
Cornejo y señaló que la elección del estándar japonés-brasileño se basó en tres criterios esenciales; tecnológico,
económico y de cooperación.

Explicó que la compleja geografía peruana fue un factor relevante para elegir el criterio tecnológico, mientras que
la inversión que las empresas televisoras deberán hacer para la adecuación de sus equipos y el impacto en las
familias fueros factores económicos que se tomaron en cuenta. Finalmente, dijo que la cooperación económica
que ha ofrecido Japón para la implementación del sistema digital en el país también fue considerado.

Cornejo aseguró que se empezará a trabajar para que el sistema de televisión digital se pueda implementar lo
más pronto posible.

Norma japonesa brasilera

La TDT es un nuevo concepto en televisión con alta definición de imagen y sonido, similar a la calidad del DVD,
que permite la transmisión de varios contenidos y programaciones de manera simultánea con contenidos
interactivos en un mismo canal.

El sistema japonés brasilero fue creado en Japón y recientemente adoptado por Brasil, país que introdujo
mejoras al sistema, creando uno propio.

Este sistema permite enviar hasta seis señales a través de un mismo canal, proporciona servicios interactivos
con transmisión de datos y tiene un canal de retorno que trabaja para soportar la transmisión de datos.

Asimismo, permite la recepción de televisión en alta definición (HDTV) en teléfonos celulares y vehículos en
movimiento.

Das könnte Ihnen auch gefallen