Sie sind auf Seite 1von 31

UNIVERSIDAD DE GUAYAQUIL

FACULTAD DE INGENIERA INDUSTRIAL


INGENIERA EN TELEINFORMTICA

CIBERNETICA E INTELIGENCIA ARTIFICIAL.


Grupo # 2
ENTROPA.
INTEGRANTES:
Aguirre Carpio Emilio.
Guzay Morocho Luis.
CURSO: 7 A
DOCENTE: : ING. Ivn Acosta
PERIODO LECTIVO
20017 - 2018
Introduccin4
Aparicin dela Entropa5
-William Kelvin5
-Max Planck...5
-Kelvin Planck...6
-Rudolf Clausius...7
Definicin Entropa.8
Sistema.13
Entropa en los Sistema cerrado....15
Entropa en los Sistema Abierto..........................................................20
Ejemplos.23
Conclusin..........26
Preguntas.27
Bibliografa....30
Grupo # 2
La entropa es una de las magnitudes ms importantes de la
termodinmica. Su definicin y propiedades posee importancia en
mecnica estadstica, teora de la informacin.

No obstante, aqu describiremos su definicin e interpretacin y


todo a cerca de la entropa.
La entropa nace como consecuencia de la segunda ley termodinmica, esta ley
posee distintos postulados

Postulados

William Kelvin Max Planck


(26/06/1824 - 17/12/1907) (23/04/1858 - 4/10/ 1947)
Kelvin - Planck

Es imposible construir una mquina que, operando cclicamente, produzca


como nico efecto la extraccin de calor de un foco y la realizacin de una
cantidad equivalente de trabajo
Rudolf Clausius
(1822/01/02 - 1888/08/24)

La entropa apareci en la Fsica introducido por Clausius durante el


siglo XIX.
Fue uno de los primeros que aplic las leyes de la
termodinmica.

En 1865 introdujo el trmino entropa, definido


como la capacidad del calor para desarrollar
trabajo.

Llev a cabo as mismo investigaciones sobre la teora cintica de los gases y


los fenmenos electroqumicos.
La Entropa, significa evolucin o transformacin, es una medida del
desorden,As, cuando decimos que:

Si aument la entropa en un sistema, Significa que creci el


desorden en ese sistema.

Si disminuyo la entropa en un sistema, significa que disminuy


su desorden.
La entropa llamada tambin

El segundo principio de la termodinmica establece el crecimiento de


la entropa, es decir, la mxima probabilidad de los sistemas es su
progresiva desorganizacin y, finalmente, su homogeneizacin con el
ambiente.
Es importante sealar que la entropa es:
Una propiedad de estado, debido que no depende del
camino recorrido, si no que de los estados inicial y final.

Una importante propiedad de una entropa es el:

Principio de Aumento de la entropa


Sistema Aislado

Sin intercambio de ENERGA

Sin intercambio de MASA

EN UN SISTEMA AISLADO,COMO EN EL UNIVERSO, LA ENTROPIA SIEMPRE


AUMENTA Y NUNCA DIMINUYE
Cual Tiene mayor entropa?
Es un conjunto de partes o elemento Organizados y relacionados que
interactan entre si, para lograr u objetivo especifico.

Los sistema reciben una entrada ya sea de energa o materia de


ambiente y provee una salida de informacin de energa o de materia.
El anlisis de la entropa puede realizarse considerando los dos tipos de
sistemas que pueden presentarse.

1. La entropa y el calor.
Entropa en los sistemas 2. La entropa y la probabilidad.
cerrados.
3. Entropa y la cantidad de informacin.

Es siempre positivo ;
hay continua destruccin
de orden.
Entropa en los sistemas Cerrados.

Es aquel que solo utiliza sus propios recursos, es decir


hay poco intercambio de energa de materia de
informacin etc.

No influye el factores externos, utilizando su reserva de


energa potencial interna para hacer la tarea o Procesos.
En general se asocian con objetos, materiales.

Ejemplo.
Reloj de Pared.
1. La entropa y el calor.

Clausius formul la segunda ley enunciando que no puede pasar


el calor de un cuerpo fro a otro caliente sin intervencin de
ningn agente externo. Por lo tanto, a este proceso se lo
considera no espontneo.

Es ms oportuno trabajar con el concepto de entropa en funcin


de incrementos en un sistema en forma de diferenciales.
2. La entropa y la probabilidad.

Se llega a la reformulacin del concepto de entropa relacionado con


la probabilidad definida por Boltzmann como un nmero de
arreglos posibles de las partculas que componen el sistema y que
estn en consonancia con el estado del sistema:

Es el numero de configuraciones posibles del sistema


en consonancia con el estado especifico del mismo
3. La entropa y la cantidad de informacin.
Por otra parte, Shannon y Weaver plantearon el concepto de
cantidad de informacin I como el nmero de smbolos posibles que
representan el mensaje expresado en bits y queda enunciado de la
siguiente manera:

Donde:
A es el suceso

p(A) es la probabilidad del mensaje o del suceso y es un nmero


entre 0 (un evento improbable) y 1 (un evento posible).
Puede deducirse de la frmula

Cuanto ms improbable (prximo a cero) sea un suceso susceptible de ser


transmitido como un mensaje, tanto mayor es la cantidad de informacin que
se podr proporcionar por su ocurrencia.

A la entropa H, Shannon la defini como la cantidad de informacin


promedio de estos mensajes, definida de la siguiente forma:

Donde N = nmero de mensajes posibles en el conjunto.


Entropa en los sistemas Abiertos.

Es aquel donde los elementos interviene la experiencia


cientfica, poseen intercambio con el medio externo.

Reciben un dato de su entorno al ambiente y cambia


dinmicamente su estado, segn el proceso que har
dicho flujo de energa o materia de que recibe.

Ejemplo.
Ingresamos datos por
medio del computador.
Cuando un nio tira al suelo su plato de comida

una empresa trata de imitar lo que otras hacen, aplican


a sus sistemas lo que hace otra
Se refiere a que las organizaciones van sufriendo una degradacin en sus
sistemas y procesos, los cuales generan que se vallan renovando,
removiendo o muriendo algunas empresas.

la entropa es algo natural q se va dar, pero lo ideal es procurar


minimizarla, en ello juega mucho los sistemas de control.
Es la tendencia que los sistemas tienen al desgaste, para el relajamiento de
los estndares y para un aumento de la aleatoriedad.

A medida que aumenta la informacin, disminuye la entropa, pues la


informacin es la base de la configuracin y del orden.

Si por falta de comunicacin , los estndares de autoridad, las funciones, la


jerarqua, etc. de una organizacin formal pasan a ser gradualmente
abandonados.
Une con lnea quien lo correcto.

Afirma la imposibilidad de construir una Clausius


maquina que convierta todo el calor en
trabajo.

La entropa apareci en la Fsica introducido por Kelvin - Planck

uno de los primeros que aplic las leyes Rudolf Clausius


de la termodinmica.
Ponga Verdadero o Falso.

Entropa en los sistemas cerrados


Es aquel que solo utiliza recursos ajenos , es decir , hay poco (F)
intercambios de energa de materia de informacin

-Entropa en sistemas abiertos


Es aquel donde los elementos interviene la experiencia basada
en hechos cientficos
(V)

A medida que aumenta la informacin disminuye la entropa (V)


Seleccione la respuesta correcta.

1. La entropa llamada tambin:


o El Segundo principio de la termodinmica

o El Primer principio de la termodinmica

o El Cuarto principio de la termodinmica

2. Seleccione una de las tres entropa en el sistema Cerrado:


o La entropa y el calor.
o La entropa y la cantidad de orden.

o La entropa y la estadstica.
3. Un sistema recibe:

o Reciben una salida ya sea de energa o materia de ambiente y provee


una entrada de informacin de energa o de materia.

o Reciben una entrada ya sea de energa o materia de ambiente y


provee una salida de informacin de energa o de materia.

o Incrementos en un sistema en forma de diferenciales.


Hinrichsen, C. C. (s.f.). Entropa. http://www.cec.uchile.cl/~roroman/pag_2/ENTROPIA.HTM.

Phosphor. (18 de octubre de 2012). Origen de la Ciberntica y el Lenguaje de programacin de


Pascal. http://origendelacybernetica-cch-sur-5to.blogspot.com/2012/10/cibernetica-la-
cibernetica-es.html.

Zahumenszky, C. (5-11-17). Que significa la Entropa. http://es.gizmodo.com/que-significa-la-


entropia-uno-de-los-conceptos-mas-fas-1795122339.

Das könnte Ihnen auch gefallen