Sie sind auf Seite 1von 12

A 1B.

“LA BIBLIOTECA DE BABEL” BORGES:


Se presenta la biblioteca universal, que admite múltiples lecturas y genera numerosas metáforas.
En la biblioteca están todos los libros posibles, en galerías hexagonales e idénticas- Hay dos
axiomas: existe desde la eternidad y los libros se componen por variaciones aleatorias de 25
signos. La biblioteca es un sinónimo de universo, no tiene límites.

A6. HUMBERTO ECO “APERTURA, INFORMACIÓN, COMUNICACIÓN”


LA TEORÍA DE LA INFORMACIÓN
La teoría de la información tiende a computar la cantidad de información contenida en
determinado mensaje.
La información es una cantidad sumada, algo que se añade a lo que ya se y se me presenta como
adquisición original. Para calcular la cantidad de información es necesario tener en cuenta que el
máximo de probabilidad de que ocurra un acontecimiento es 1 y el mínimo 0. La probabilidad
matemática de un acontecimiento, oscila entonces entre 1 y 0.
Para medir la disminución o le aumento de la cantidad de información, se recurre a un concepto
tomado de la termodinámica, la entropía (es una medida estadística).
La teoría de la información, al estudiar la transmisión de los mensajes, los entiende precisamente
como sistemas organizados, regidos por leyes de probabilidades convenidas, el desorden de este
modo es el peligro que está al acecho para destruir el mensaje mismo, y la entropía es su medida.
La entropía será así, la medida negativa del significado del mensaje. De esta forma, para que el
mensaje sea claro y no caiga en el desorden se recurre a la redundancia.
La información en cuanto a añadidura esta vinculada a la originalidad, a la no probabilidad.
Cuanto más ordenado y comprensible es un mensaje, más previsible resulta porque nos dice cosas
que ya sabemos, es más significativo. Ciertos elementos particulares del desorden aumentan la
información del lenguaje.
En el arte, por ejemplo es donde se manifiesta el hecho de información vs significado. Es en este
campo en donde la imprevisibilidad produce la fascinación. Al poner orden en el sistema y
disminuir la entropía, sabré mucho en cierto sentido y poco en otro.
Cuanto mayor es la información, más difícil es comunicarla, sin embargo, cuanto más claramente
se comunica un mensaje menos información se nos da.

TERMODINÁMICA
La termodinámica, por definirla de una manera muy simple, fija su atención en el interior de
los sistemas físicos, en los intercambios de energía en forma de calor que se llevan a cabo entre
un sistema y otro.
La entropía es el segundo principio de la termodinámica que puede definirse esquemáticamente
como el "progreso para la destrucción" o "desorden inherente a un sistema. Permite, mediante
cálculo, determinar la parte de la energía que no puede utilizarse para producir trabajo. Describe
lo irreversible de los sistemas termodinámicos. "No existe un proceso cuyo único resultado sea la
absorción de calor de una fuente y la conversión íntegra de este calor en trabajo", es así como la
idea de entropía se asocia a una idea de consumo.
En la teoría de la información, medir la cantidad de información significa medir un orden o un
desorden según el cual un mensaje dado esta organizado. El contenido de un mensaje viene dado
por su grado de organización, la información es medida en un orden, y en consecuencia, la
medida del desorden. Es decir, la entropía será lo opuesto a la información, o sea que la
información de un mensaje viene dada por su capacidad de organizarse según un orden particular,
escapando a ese desorden elemental al que los elementos naturales tienden.

C01. FOUCAULT “EL PANÓPTICO”


Hacia fines del siglo XVIII, se habían promovido medidas cuando se declaraba una peste, las
cuales contaban en dividir las ciudades en secciones, establecer el poder en un intendente, que
hubiera un síndico que vigilara las calles, y que las personas se encerraran en sus casas. Había
una inspección constante, y a través de distintos puntos de vigilancia, el intendente lo controlaba
todo. Los individuos estaban controlados, y se realizaba un trabajo entre centro y periferia, ya que
los enfermos eran excluidos. Este sistema apelaba a las separaciones múltiples, a distribuciones
individualizantes, a una organización en profundidad de vigilancias y de los controles, a una
intensificación y una ramificación del poder; el leproso queda rechazado, en un exilio-clausura.
El exilio del leproso significaba una marca, un intento de comunidad pura; la detención de la
peste, un análisis repartido, una sociedad disciplinada. Tratar a los leprosos como apestados,
proyectar los desgloses de la disciplina sobre el espacio confuso del internamiento, trabajarlo con
los métodos de distribución analítica del poder, individualizar los excluidos, pero servirse de los
procedimientos de individualización para marcar exclusiones- esto es lo que se ha sido llevado a
cabo regularmente por el poder disciplinario desde los comienzos del siglo XIX: el asilo
psiquiátrico, la penitenciaria, el correccional, el establecimiento de educación vigilada, y por una
parte los hospitales, de manera general todas las instancias de control individual, funcionan de
doble modo: el de la división binaria y la marcación, y el de la asignación coercitiva, de la
distribución diferencial. De un lado se apesta a los leprosos, y del otro, se marca quién es el
leproso. Siempre se marca al anormal.
El panóptico de Bentham es la figura arquitectónica de esto, una torre en el centro y un anillo que
la rodea. La construcción periférica se divide en celdas. En la torre hay un vigilante, y los
individuos están encerrados en las celdas. A plena luz del día, está la mirada del vigilante. El
mayor efecto del panóptico es inducir en el detenido un estado consciente y permanente de
visibilidad que garantiza el funcionamiento automático del poder, lo esencial es que se sepa
vigilado. Bentham ha sentado el principio de que el poder debía ser visible e inverificable.
Visible porque el detenido siempre será espiado, e inverificable porque no debe saber cuándo se
lo mira, pero saber que siempre es mirado. El panóptico es una máquina de disociar la pareja de
ver/visto: en el anillo periférico, se es totalmente visto, sin ver jamás; en la torre central, se ve
todo, sin ser jamás visto. Este dispositivo automatiza y desindivualiza el poder. El que está
sometido a un campo de visibilidad, y que lo sabe, reproduce por su cuenta las coacciones del
poder, se convierte en el principio de su propio sometimiento. El panóptico puede ser utilizado
como máquina de hacer experiencias, de modificar comportamiento, de encauzar o reeducar la
conducta de los individuos. Es una manera de definir las relaciones de poder con la vida cotidiana
de los hombres, de organización jerarquiza, de disposición de centros y de los canales de poder,
etcétera.
Cualquier miembro de la sociedad, podrá comprobar cómo funcionan las escuelas, hospitales,
fábricas, prisiones, por ende no hay peligro que la máquina panóptica pueda generar tiranía.,
porque el dispositivo estará democráticamente controlado.
El esquema panóptico está destinado a difundirse en el cuerpo social; se trata de volver más
fuertes las fuerzas sociales, aumentar la producción, desarrollar la economía, difundir la
instrucción, elevar la moral pública, etc. Una pregunta sobre esto, sería ¿cómo al aumentar sus
fuerzas, podrá el poder acrecentar las de la sociedad en lugar de confiscarlas o frenarlas? La
solución del panóptico es que el aumento productivo del poder no puede ser garantizado más que
si de una parte tiene la posibilidad de ejercerse de manera continua en los basamentos de la
sociedad, hasta su partícula más fina, y si, por otra parte, funciona al margen de esas formas
repentinas, violentas, discontinuas, que están vinculadas al ejercicio de la soberanía. El
panoptismo es el principio general de una nueva anatomía política cuyo objeto y fin no son la
relación de soberanía, sino las relaciones de disciplina.

¿En qué diferencia conceptualmente Foucault el enfoque que se le dio a la peste del de la lepra?
Comunidad pura/ Sociedad disciplinada. Las instancias de control individual funcionan como
división binaria y la marcación (loco y no-loco, normal-anormal, etc). La división constante de lo
normal y lo anormal. Exilio del leproso, tratar al mismo como apestado. Todos los mecanismos de
poder, todavía en la actualidad se disponen en torno de lo anormal. En el Siglo XIX se aplicó al
espacio de la exclusión, cuyo habitante simbólico era el leproso la técnica de poder propia de
reticulado disciplinario.

¿Qué relación podemos establecer o inferir entre información, forma, formación y poder?
La información es forma, estructura, por oposición a lo informe u homogéneo. Es conocimiento o
datos. Se puede guardar en la memoria. Bits (unidad de información).
La forma implica información (bits). Formación: 1) dar forma a algo 2) En el término
educativo, cuanto más formo la máquina menos necesito formar /entrenar al operador. El poder
tiene que ver con la información, quien y cuanta se posee. En el sentido periodístico-datos, si se
tiene mucha información errada es peor que no tener información.
El panóptico es una máquina, cumple ciertas funciones, funciona de tal manera por la forma que
tiene (anillo periférico). El poder lo ejercen el síndico e intendente controlando y vigilando,
deteniéndose frente a las casas. La información se basa en que el síndico se informa del estado
de todos, si alguno no se asoma por la ventana pregunta el motivo.

Q 25. CALLETI:
“La Comunicación humana”
▪ La comunicación animal tiene similitudes y diferencias con la humana. En ambos casos, el
mensaje es un conjunto de signos que indican objetos, y son comprendidos porque los signos
pertenecen a un código (sistema de convenciones). Pero, se diferencian en que las abejas no
dialogan, en que sólo el lenguaje humano funciona como metalenguaje (habla de otro lenguaje) y
el código humano es más complejo.
La comunicación puede pensarse como transmisión de información (emisor-receptor) o como
producción de significación (los receptores realizan una interpretación de lo que los elementos del
mensaje significan).
▪ Saussure, a través de la Semiología, se centró en los signos lingüísticos. Él diferenció la lengua
(parte social del lenguaje, es el código) del habla (uso de la lengua). El habla individual del
sistema de convenciones constituye la lengua. La lengua está formada por signos. Y el signo se
compone por un significado (la idea) y el significante (el sonido). No hay significado ni
significante aislados uno de otro, su relación es arbitraria.
La lengua es un sistema de valores, donde el valor de cada signo es el lugar que ocupa en relación
a los otros, cada signo es lo que los otros no son.
Los signos establecen relaciones sintagmáticas (cadena de palabras, donde cada signo se
relaciona a los otros) y paradigmáticas (cadenas asociativas con signos ausentes).
▪ Peirce, a través de la Semiótica, indaga en la relación del hombre con el mundo. Para él, un
signo es algo que está para alguien en lugar de otra cosa en algún aspecto o carácter; donde esa
cosa tiene que ser un signo. Para Peirce no hay otra forma de conocer el mundo fuera de los
signos.
Para Peirce la experiencia humana se organiza en tres niveles: primeridad (el orden de las
cualidades), segundidad (el orden de la realidad) y terceridad (el orden de los signos).
Los signos que representan a su objeto por similaridad se llaman íconos (analogía). Cuando el
vínculo es por proximidad, indicando su objeto, se denominan índices. Y cuando la relación se
establece por convención, por hábito o ley, se habla de símbolos.
Vale decir que las relaciones se dan mezcladas, porque cada signo no establece una única relación
con su objeto.
▪ Hay distintas formas de comunicación: comunicación directa (incluye conversación
interpersonal e institucional) y mediada o mediática.
- La comunicación interpersonal se da en forma directa entre dos o más personas, participando
los cinco sentidos (participación perceptual. Los signos no verbales ofrecen elementos sobre la
situación comunicativa, el mensaje, etc.). Esta comunicación tiene interdependencia
comunicativa, porque cada mensaje es una respuesta al mensaje del otro.
- Una institución desarrolla la comunicación interna (entre las personas que la conforman, donde
cada una tiene un rol) y una comunicación con la sociedad de la que forma parte. En las
instituciones las normas de la comunicación están claramente reguladas y varían de acuerdo con
los roles.
- En la comunicación mediada se pone de relieve el papel mediador que tiene la tecnología en la
comunicación. Los productos de esta comunicación están hechos sobre soportes, e integran
distintos géneros, lo cual determina la combinación de los elementos significativos en cada
medio.

A2. CHAPLIN. CONCEPTOS INTRODUCTORIOS A LA INFORMÁTICA


INFORMÁTICA
Informática es información automática, se trata de automatismos para procesar (guardar, cambiar,
crear, transmitir) datos de todo tipo.

INFORMACIÓN
La información es forma, estructura, conocimientos, datos, en alguna medida lo opuesto a
entropía. La información se mide en bits, cuando tiene más de un bit pasa a llamarse byte, que es
igual a 8 bits.

HARD Y SOFT
Una computadora es una serie de mecanismos electrónicos o piezas mecánicas (lo hard o duro),
las piezas mecánicas necesarias para procesar información, y también un contenido, es decir,
millones de datos, de códigos, que representan información de nuestro interés o recetas para
procesarla (soft), es información destinada a ser ejecutada.
El Hard se puede dividir en elementos internos de la máquina y los periféricos, aquellos que se
conectan desde afuera del gabinete.

PROGRAMAS vs DOCUMENTOS
Los programas son sinónimos de aplicaciones, archivos ejecutables o soft, y los documentos,
textos, fotos, sonidos, videos, etc. Los programas son necesarios para abrir y ver, modificar o
crear documentos. Tanto los programas como los documentos se guardan en el disco rígido. Con
los programas (los archivos ejecutables) ejecutamos, configuramos o instalamos los documentos.
Estos siempre permanecen inalterados, lo que se modifican son los documentos. Los programas
sin embargo, pueden ser configurados, es decir, cambiarle algunas de sus características. Las
extensiones típicas de los archivos ejecutables son: .EXE, .COM, etc. Tanto los programas como
los documentos son guardados en código binario (ceros y unos). En el caso de los documentos
estos dígitos representarán características (colores, letras y sonidos) mientras que en los
programas ejecutables, órdenes, acciones.
Existen programas fuentes o programas objeto, los típicos archivos .EXE que si se pueden
ejecutar y usar en los sist. Operativos comunes por estar constituido de código ejecutable.
A su vez, los programas pueden tener código abierto o cerrado. El primero tiene que ver con que
los programas fuente están a disposición del usuario y los protocolos son públicos, mientras que
los cerrados son de propietario y el código es reservado a su dueño.
Del lado de los documentos tenemos datos o sustantivos (texto, imagen, sonido), material pasivo,
estático, y del lado del código ejecutable verbos, códigos que representan órdenes o comandos
que desencadenan acciones, es dinámico y activo. Los documentos activos necesitan de su
aplicación específica para que ejecute el código que contenga.

ARCHIVOS Y DISCO
Una de las partes clave del hard es el disco, es el lugar donde se puede guardar todo tipo de
información, de manera permanente. La info. Se guarda organizada archivos, que son un conjunto
de info. Con un nombre, para poder identificarlos, se trata de tres o más letras luego de un punto
final. Algunos archivos serán documentos y otros programas.

PROGRAMAS, “LO ACTIVO”


Con los programas sólo hacemos, típicamente, una de tres cosas: ejecutarlos, configurarlos o
instalarlos. Ejecutarlos significa que "arranquen" y permanezcan funcionando para poder usarlos.
Normalmente están "pasivos" en el disco hasta que los ejecutamos; es la tarea que se realiza
cotidianamente: ejecutar un programa, una "aplicación", para procesar documentos con él. Pero,
de la misma manera que podemos adaptar o ajustar a nuestras necesidades algunos utensilios, los
programas, pueden ser configurados. Esto es: cambiar algunas de sus características. Típicamente
el propio soft nos ofrece esta posibilidad, se la suele llamar opciones, propiedades, personalizar o
seteos. etc

INSTALAR
Instalar un programa es incorporarlo a la máquina para que pueda ser usado. En principio es una
tarea que sólo se hace una vez o cuando el software se daña. Los programas pueden ser un solo
archivo ejecutable o un conjunto de archivos, algunos de los cuales serán de tipo documento y
otros ejecutables, algunos fundamentales y otros complementos. Para que una aplicación quede
instalada se deben cumplir dos condiciones: disponer de los archivos que la componen (esto
puede significar copiar el programa en el disco de la máquina si hablamos de informática clásica
o solamente "seleccionar", "habilitar", "requerir" o "alquilarlos" si hablamos de "nube"). Pero
existe una segunda condición o acción: registrar y adaptar algunas características técnicas del soft
y del equipo para que el sistema se adapte a él. Normalmente estas dos tareas las realiza, casi
automáticamente, un programa instalador. Parte de las acciones las podemos hacer nosotros y es
la nombrada "configuración" pero hay gran actividad automática siempre.
PROFUNDIZANDO EN LA INFORMACIÓN
No debemos confundir el envase con lo que guarda, por ejemplo un libro es sólo el envase de la
información, el soporte. La información es justamente forma, estructura, por oposición a lo
informe u homogéneo, en alguna medida lo opuesto a entropía.
Los soportes de información (un disco, un pizarrón o un animal) resisten la "deformación" del
ambiente de dos formas posibles: lo inanimado por resistencia mecánica (la efectividad para ello
define la durabilidad del soporte), lo vivo intercambiando energía con el entorno.
La unidad tradicional de información es el bit.

SANIDAD DIGITAL
Es conveniente prestar especial atención a las "opciones" de instalación: en general las "opciones
por defecto" que pueden jugar en nuestra contra. Es importante minimizar lo que dejamos en
manos de automatismos (incluyendo auto-actualizaciones o similares). También es esencial no
instalar aplicaciones inútilmente aunque luego las retiremos (des-instalar). Nunca un sistema
queda exactamente en las mismas condiciones que estaba previamente cuando desinstalamos
algo.
Las "aplicaciones automáticas" (en muchos casos llamadas "aplicaciones o programas
residentes"). Son aquellas que "arrancan solas" al encender el sistema (como los antivirus, relojes,
alarmas, autoactualizadores, etc.). Todo aquello que se inicia al encender el equipo en vez de
esperar nuestra orden de ejecutarse porque vamos a usarlo (como un procesador de textos,
calculadora o cualquier otro) estará permanentemente "activo", ocupando recursos (por ejemplo
espacio de memoria), requiriendo por tanto más potencia al sistema y además, lo sepamos o no,
ejecutando acciones con algún propósito, lícito o ilícito.
En general intentamos utilizar artefactos y programas para nuestro beneficio, les imponemos que
hacer para satisfacer nuestras necesidades, para dar la forma que deseamos a algo pero los
sistemas también tienen su propia "forma", sus "intenciones", su "cultura y lenguaje", sus
automatismos. Ejercen poder y de eso se trata en general el mundo de la información: forma y
poder, forma-poder.
SISTEMA OPERATIVO
Hay tres tipos de soft:
1- Aplicaciones: los programas que típicamente usamos.
Se comunican con el usuario mediante ventanas, el sistema operativo lo hace mediante el
escritorio y la barra de tareas. Las ventanas son por lo tanto, una interface, un nexo entre dos
fases o elementos distintos.
¿Qué problemas de seguridad implican las aplicaciones cliente servidor? ¿En qué tipo de
aplicaciones o servicios son preocupantes estos problemas?
El problema está en que algunos de los programas que ejecutamos en nuestros equipos son
servidores, que responden automáticamente a determinadas acciones de un cliente remoto, más
allá de las órdenes que nosotros le podemos indicar. Un ejemplo de esto es el MSN, que da la
orden de reproducir un sonido o mostrar un cartel cuando alguien se conecta, al mismo tiempo
que se entiende con sus clientes para avisarles del mismo modo cuando nosotros nos conectamos.

2- Lenguajes de programación: es un lenguaje específico que utilizamos para poder controlar el


comportamiento de nuestra computadora. Este lenguaje es realizado por los programadores que
efectúan los programas. Son programas para hacer programas, para crear el resto del soft.
¿Cuáles son los distintos "tipos" o "niveles"?
Una aplicación puede ser “común” o monolítica: un solo elemento, en un solo lugar que realiza
todas las funciones para las que fue prevista. Las comunicaciones en su interior se realizan de
manera más o menos estructuradas según lo decida el programador. O bien, una aplicación puede
ser dividida en dos secciones, a estas las llamamos aplicación cliente servidor. Cliente y servidor
trabajan en conjunto aunque separados físicamente, y prestan sus servicios al usuario como si se
tratara de un programa único. El cliente es el que ordena, el que pide y el servidor quién obedece,
el que entrega información. El usuario opera directamente sobre el cliente como un
funcionamiento manual, mientras que el servidor suele ser totalmente automático, sólo atiende al
cliente. A su vez, un servidor puede conectarse con múltiples clientes al mismo tiempo.

3- Sistemas operativos: la base del sistema, como por ejemplo Windows.


Un sistema operativo es el que hace funcionar la máquina, la deja dispuesta para poder ejecutar
las aplicaciones que necesitemos. Es quien nos comunica con el ordenador, lo controla y prepara.
Permite instalar y controlar componentes externos como la impresora o los parlantes y puede
realizar varias cosas simultáneamente. Todo se representa mediante ventanas e interactuamos con
ellas mediante el mouse.
Las ventanas son la forma visual de presentarnos aplicaciones para que podamos usarlas. El
sistema realiza varias tareas al mismo tiempo dividiéndose internamente en máquinas virtuales,
pero al haber un solo monitor, existen las ventanas, cada una es un monitor virtual
correspondiente a una tarea en curso. Siempre una será la ventana activa.

ESQUEMA GENERAL
El sistema operativo no se comunica directamente con el hard, lo hace por medio de una
interface, que en este caso se denomina UEFI, EFI (o la tradicional aunque algo antigua para uso
general: BIOS). Es un conjunto de código ejecutable en un soporte especial, es hard con soft ya
incluido, fijo o semi-fijo, o sea son pequeños adminículos híbridos de hard y soft. La
denominación más genérica es firmware. (Todo aquel programa integrado al hard que es lo
primero que se ejecuta al arrancar el dispositivo)
El sistema funciona en capas, donde cada una hace uso de los servicios (recursos, posibilidades
funciones, etc) de la inferior y presta servicios a la superior. De esta manera se posibilita
compatibilidad.
6. USUARIO
5. Ventanas
4. Aplicaciones
3. Sist. Operativo
2. BIOS
1. Hard
Las máquinas, el hardware, no son todas iguales pero gracias a este sistema de interfaces
estándar, una aplicación será, por ejemplo, un programa "para Windows" (o para Linux) no
solamente para una máquina en particular.
Los sistemas operativos se pueden desentender sobre que equipo funcionarán, sólo piensan en
como deben comunicarse con la BIOS o UEFI. Sus diseñadores piensan en que servicios se le
puede pedir y como hacerlo, sin importar donde se instalará, sólo se prestará atención al tipo
general de hard (tipo de procesador y dispositivo por ejemplo) y en la medida que se quiera
optimizar. Es la interfaz estándar (la implementación del firmware, la BIOS, UEFI, etc.) quien
"adapta" las distintos marcas de hard al Sistema Operativo.
Gracias a esta estructura en capas y estándares, cualquier programador o fabricante puede diseñar
y construir aplicaciones y máquinas, prestando (si se dedicará sólo a una "capa" de este modelo)
sólo atención a la interfaz de arriba y de abajo.
En síntesis: el S. O. tiene la función esencial de posibilitar ejecutar aplicaciones que es lo que nos
interesa usar. Asimismo controla máquina y periféricos, facilitando a las aplicaciones el uso de
los mismos a modo de "servicios" (como imprimir, abrir, guardar, ver, transmitir, etc.).
Asimismo, los usuarios, pueden escribir, abrir archivos, editar, insertar imágenes en un
documento, dar formato viendo como "será" y luego imprimir, sin si quiera saber que marca es el
monitor o la impresora.

INTERFAZ
Hay distintas interfaces, el modo ya "tradicional" es el denominado genéricamente WIMP
(ventanas, íconos, menús y puntero de ratón o similar). Posteriormente se incorpora el "diálogo"
con la maquina mediante tacto, primero sobre placas especiales y luego sobre las propias
pantallas.
En general, cuanto más complejo es un sistema internamente, más simple puede ser su interfaz y
viceversa: un sistema simple necesita de una interfaz compleja y por ello usuarios activos y
formados. Si agregamos la interfaz por voz y/o asistentes "inteligentes" de ayuda, llegamos al
extremo en que no es necesaria la lectoescritura para operar sistemas mucho más poderosos que
las computadoras que posibilitaron los primeros viajes espaciales tripulados por ejemplo. Íconos
cada vez más grandes, estandarizados, en menos cantidad y variedad, mayores automatismos,
menos posibilidades de decisiones sobre configuración (muchos automatismos por defecto), etc.
posibilita que cualquiera pueda ser usuario/cliente.
El extremo de "virtual y simple" de los mecanismos de interacción con los sistemas son los
basados en sensores remotos o atípicos (cámaras, micrófono, acelerómetro y giróscopo, GPS,
lectores biométricos específicos, etc.). Mediante estos sensores podemos comunicarnos usando
"gestos".
MÁS VENTANAS
Como se comentó, el sistema realiza varias tareas al mismo tiempo "dividiéndose" internamente
en "máquinas virtuales" pero tiene en general una sola pantalla, por ello existen las ventanas, cada
una es un "monitor virtual" correspondiente a una tarea en curso. Suele atenderse a una
ventana/proceso en particular, no obstante, los recursos del dispositivo que utilicemos no estarán
exclusivamente ocupados en dicha ventana, suceden muchas cosas en los dispositivos además de
las que vemos. De hecho hay procesos que funcionan sin ventana alguna, sin interfaz. hay
proceso "en segundo plano" e incluso algunos que directamente son ocultos. Otra vez nos
encontramos con las recurrentes capas, en este caso la visible y las más profundas: que,
comentamos ya, suelen ser inversamente proporcionales en grado de complejidad/simple manejo
(cuanto más simple una más compleja la otra).

COMPONENTES
Como se comentó, la computadora es hard y soft. El hard los componentes "duros", las piezas
concretas de equipo y el soft la información, los programas y documentos. Por su parte el hard se
puede dividir en los elementos internos de la máquina y los periféricos que se conectan desde
fuera del dispositivo y cumplen funciones auxiliares, en general de ingreso o egreso de
información (pantalla, teclado, impresora, etc.). Por su lado, los componentes internos pueden ser
todos una misma entidad, integrados a una placa principal de circuito o ser independientes e
intercambiables. Esta segunda opción suele ser mejor pero mas cara y en general aplicable
actualmente sólo a sistemas profesionales o de tamaño grande. Algunos los hay en versión interna
o externa, como el modem (modulador/demodulador) para conectar con redes globales o
similares, y otros.
Lista de componentes:
- Microprocesador: ejecuta todas las acciones y cálculos matemáticos, controla en general la
computadora. Es la pieza fundamental y tiene una gran incidencia en la velocidad para realizar
cálculos y en base a eso puede responder eficazmente a las órdenes (y allí sí "decisiones")
programadas en el soft.
- Memoria RAM: Receptáculo provisorio de la información. Es el lugar de trabajo donde se opera
con los archivos. Su capacidad y velocidad son la clave del rendimiento. Típicamente se puede
incorporar más memoria.
- Disco rígido: Depósito mayor y permanente de información. Se guardan en él todos los archivos
(tanto programas como documentos). Al ejecutarse un programa este funciona copiándose a la
memoria y opera desde allí hasta que lo cerremos. Todas las aplicaciones se encuentran en el
disco hasta que manualmente las ejecutamos o activamos, pero existen otras que como el sistema
operativo, arrancan solas, se ejecutan automáticamente y permanecen residentes, es decir, en
memoria constante.
- Placa madre: placa de circuito principal, donde está el microprocesador y la memoria. Sobre ella
se conectan los demás elementos:
. Placa de video, Placa de sonido, Módem, Lectora de DVD. Hay más, estos son los más
importantes. Los externos serían: Monitor, Mouse y teclado, Micrófono, Impresora, etc.
-Bus: Vías de comunicación interna y zócalos o encastres de conexión de placas. Gravitan
bastante en el rendimiento y determinan que tipo de placas podemos agregar. En realidad, en los
sistemas típicos, se trata de tres "vías" distintas por su tipo y función: de datos, de direcciones y
de control. El "ancho" en bits (8, 16, 32, 64, etc.) marca su velocidad y sus posibilidades de
cantidad de direcciones.
-BIOS o UEFI: Híbrido hard/soft (contiene memoria fija que implementa el soft de arranque
firmware). Hace de enlace (interfaz) entre el hardware y el sistema operativo. Se describe en el
apartado "Esquema General".
-Placas y sistemas para multimedia, entrada y salida de señales, etc. : Para tareas no profesionales
la tendencia actual es a los dispositivos integrados, monolíticos, pero para usos avanzados o
específicos en vez de adquirir un equipo mayor se pueden adicionar a los sistemas estándar, hard
interno o periféricos dedicados como placas especiales de video y audio, telecomunicaciones,
servocontrol, sensores, etc.
-Puertos: Hay una infinidad de modos de conexión de los dispositivos externos y las máquinas,
tanto cableados como sin cable. Desde un simple USB o de red hasta puertos de alta velocidad
para video. Algunas de las características definitorias (además de la forma física) son: velocidad
de datos, canales, relación señal/ruido, longitud posible, presencia o no de: línea de energía,
control de titularidad de derechos (DRM), compatibilidad y retrocompatibilidad, costo, etc.
-dispositivos de lectura/escritura: Ya abandonada la época de los discos flexibles, lo típico
todavía en uso son las grabadoras y/o lectoras de CD, DVD, Blu-ray, etc. En algunos casos se
integran a los equipos pero en otros (especialmente memorias flash, discos externos, enlaces a la
nube) se conectan por puerto común.
-Periféricos o accesorios ahora integrados: Por ejemplo: placa de red, módem telefónico,
superficie de control táctil, cámara, micrófono, sensores biométricos, etc.

GUARDAR COMO… SOPORTES Y ABSTRACCIONES


Al abrir un documento existente en el disco (para verlo o editarlo) en realidad lo que estamos
haciendo es copiarlo en memoria y sobre dicha copia es sobre la que trabajamos. Por ejemplo,
con el procesador de textos abrimos el archivo "carta.doc", el texto que vemos en pantalla es la
copia en RAM del archivo que permanece inalterado en el disco. Si escribimos, lo hacemos sobre
dicha copia virtual, quedando así distinta del original en disco. Luego, al guardar estaremos
reemplazando el original del disco por la copia modificada que estamos viendo. Cerrar un
documento es eliminar la copia en memoria que vemos. Si no guardamos y cerramos (o apagamos
el equipo) se perderán "los cambios" que escribimos, quedándonos solo con el original del disco
(por eso el soft suele "preguntar" que hacer, si guardar o no, al intentar cerrarlo).
Contamos también con la opción de "guardar como" otro archivo (con distinto nombre, ubicación
o formato del original). Nos quedarán en disco dos archivos: el recientemente creado (con los
cambios de contenido o formato realizados) y el viejo sin modificar.
Reiteremos dada la importancia: "guardar como" puede cumplir varias funciones, no sólo una:
guardar con otro nombre, con otro formato, y también nos posibilita guardar una copia en otro
lugar ya sea del mismo disco o en otro soporte.
El tamaño de la memoria determina la envergadura de los programas y documentos que podemos
usar, cuantos al mismo tiempo y el rendimiento general. La información en el disco (u otro tipo
de memoria permanente) se organiza internamente en distintos sectores y "partes", tarea que
realiza el sistema operativo. Asimismo, típicamente, en vez de con el disco entero nos
relacionamos con las "partes" llamadas "particiones" que, a nuestros ojos se comportan como un
disco completo e independiente aunque físicamente no lo sea. Para que accedamos cómodamente
a nuestra clasificación en archivos usan índices, una especie de "catastro" en el que se registra
donde está cada archivo (por ejemplo FAT, NTFS, EXT4, HFS, etc.). Se suele denominar
"abstracción" justamente a este modo de "ver" la información: trabajamos con bits pero vemos,
pensamos y operamos con "documentos" en realidad virtuales pues físicamente están en otra
capa, más "física", pueden estar en cualquier parte (y en varias partes), incluso en el modelo nube
u "on line" fuera de nuestro dispositivo. Podemos usar dispositivos "habitando" sólo las
abstracciones, lo virtual pero para poder controlar nuestras acciones realmente, para ejercer
"consentimiento informado" es importante tener consciencia de lo físico.

RESUMEN “TODO VIGILADO POR MÁQUINAS DE AMOROSA


MISERICORDIA”
En esta serie analizaremos la historia desde un punto de vista tecnológico y veremos como
las computadoras y las máquinas han influido en nuestra sociedad y en el transcurso de los
acontecimientos.
Esta historia empieza en la década de los 50 con una extraña escritora y filósofa llamada
Ayn Rand. Ayn Rand había desarrollado una filosofía que expresaba a través de sus
novelas a la que denominó "Objetivismo". Según esta idea el ser humano está solo en el
Universo y debe liberarse de todo tipo de contol político-religioso. Debe guiarse
únicamente por su felicidad y sus propios deseos egoístas, de forma puramente racional,
para convertirse en un "héroe". Como vimos en "La Trampa", este tipo de ideas no eran
muy bien acogidas por la sociedad tras el gran desastre económico ocurrido en los años 30.
Sus novelas no se popularizarían hasta diez años despúes de su muerte en 1981, a inicios de
la década de los 90. Uno de sus libros, "La Rebelión de Atlas," se convirtió en el segundo
libro más influyente de Norteamérica después de la Biblia. El grupo más influenciado por
este libro fue el de los nuevos empresarios de Silicon Valley, que empezaron a verse a sí
mismos como héroes randianos. En California otro grupo también muy influenciado
desarrolló la llamada "ideología californiana": pensaron que las nuevas tecnologías podrían
convertir a todo el mundo en héroes randianos y liberar a la sociedad del control político.
Lo harían mediante una vasta red informática que se venía desarrollando desde hacía años y
que permitiría mantener a todas las personas interrelacionadas sin necesidad de un control
central, lo que acabaría generando un sistema autoregulado y estable. Esto provocaría la
aparición de un nuevo tipo de democracia y de "Gobierno mundial" creado por los propios
ciudadanos.
Años atrás, el director de la Reserva Federal Alan Greenspan, había formado parte de "El
Colectivo", el pequeño y selecto club de egoístas de Ayn Rand. Alan era un seguidor fiel de
estas ideas, por lo que tuvieron una gran influencia en las políticas adoptadas por el
gobierno de EE.UU durante la presidencia de Bill Clinton. Éste dejó que los mercados, una
vez más, se encargaran de conducir al país. Pero esta vez no se produciría el descontrol
total que se había producido en intentos anteriores. La diferencia la marcaron las
computadoras y los modelos económicos. Éstos permitían predecir a los bancos el riesgo de
cualquier inversión o préstamo y aplicar ingeniería económica para conferir estabilidad a
los mercados. De esta manera se empezaron a emitir préstamos como nunca antes, lo que
llevó al país a un rápido crecimiento. Además, "Intenet y otros sistemas de redes
permitierion a las empresas responder al instante a las necesidades de los mercados y a
los deseos del consumidor. Era la interrelación cibernética predicha por los ideólogos
californianos." A todo esto se le llamó la "Nueva Economía". Era una economía basada en
números y datos irreales. Lo que ocurría en realidad era que se estaba creando una gran
burbuja especulativa. Las cifras no tenían nada que ver con la productividad real del país.
Era todo virtual.
"Para 1997, el florecimiento americano estaba remodelando el mundo entero. El gobierno
estadounidense estaba dominado por banqueros y economistas que veían el planeta como
un gigantesco sistema financiero. Creían que la estabilidad económica global se
alcanzaría si las naciones se abrieran por completo al libre flujo de capital. Y el campo de
pruebas que crearon para probar esto fue el Sudeste Asiático." La élite financiera creó allí
una enorme burbuja especulativa que no tardó en explotar y conducir a los países
experimentales al desastre. Estalló una enorme crisis ante la que el FMI se presentó como el
salvador ofreciendo grandes préstamos a cambio de los cuales se deberían cumplir las
condiciones que ellos impusieran: privatizaciones, recorte del gasto público... Esto trajo
nuevos problemas y una enorme pobreza: "En todos los países rescatados por el FMI como
Tailandia y Corea del Sur, tras un primer momento de estabilidad, llegó un desplome del
tipo de cambio. Estaba claro que todo aquello había sido provocado por la élite financiera,
que aplicaba una agenda oculta para su propio beneficio. El poder ya no pertenecía a los
políticos, sino que había sido transferido por completo a las clases más altas.
De pronto se empezaba a ver que las computadoras, Internet y otros sistemas de redes
realmente no eran las herramientas que permitirían distribuir el poder y crear un nuevo tipo
de democracia, sino todo lo contrario. Habían proporcionado nuevas formas de ejercer el
poder, lejos de conseguir un mundo estable. Además, todo, incluso las emociones, había
quedado mercantilizado:
"En el siglo XIX las mercancías se facturaban en fábricas por trabajadores en su mayoría
explotados, pero ahora era yo la que convertía mis intimidades en mercancías para que las
corporaciones dueñas de los foros en las que se publicaban como Comserve o AOL se
enriquecieran presentándolas como un mero entretenimietno consumista."- Carmen
Hermosillo

Había algo que Ayn Rand no había considerado antes de crear su filosofia del egoísmo: el
amor. Ella misma se topó con él. Se enamoró terriblemente de un miembro de su club,
Nathaniel Branden, pero éste no le correspondió. Nathaniel condujo a Ayn a la
desesperación y la rabia. Ella quería convencer a toda costa a Nathaniel de que su amor por
él era pura racionalidad y que era igualmente racional y moral que él le correspondiera a
ella. No pudo aceptar su derrota. "El Colectivo" y su filosofía quedaron destrozados. A
finales de los 70 Ayn se encontraba totalmente sola. Solo Alan Greenspan continuaría
visitándola.

En 2001, tras los auto-atentados del 11-S, la bolsa se desplomó y los EE.UU se sumieron en
una gran crisis. Como solución Greenspan bajó las tasas de interés para incentivar el
consumo y la emisión de préstamos. Se produjo el mayor boom consumista de la historia.
Parecía inevitable por lo tanto que se reportara una gran inflación, pero no ocurrió. Y la
razón fue China. China había devaluado su moneda para aumentar las exportaciones e
inundar Norteamérica con sus productos. Los dólares a su vez inundaron China y ésta se los
devolvió a EE.UU en forma de préstamos, comprando Bonos del Estado. De esta manera se
consiguió la estabilidad, pero era todo una gran ilusión: los EEUU estaban cayendo en la
misma trampa que ellos habían aplicado en el Sudeste Asiático años atrás. ¿Por qué no se
percataron? Porque pensaron que esa estabilidad era debida al sistema de modelos
económicos basado en las computadoras que ellos mismos habían implantado. En 2008
estalló la gran crisis. Ahora, a mediados de 2012, nos encontramos cerca de un colapso
financiero global.

Das könnte Ihnen auch gefallen