Sie sind auf Seite 1von 13

REPÚBLICA BOLIVARIANA DE VENEZUELA

INSTITUTO UNIVERSITARIO POLITÉCNICO


“SANTIAGO MARIÑO”
EXTENSIÓN MATURÍN

ERRORES DE REDONDEO Y
ARITMÉTICA DEL
COMPUTADOR

Autores:

Víctor Villarroel C.I 26.361.688

Docente de la asignatura(a):

Ing. Jose Blanco

Maturín, Abril del 2019


INDICE

INTRODUCCIÒN……………………………………………………………..….1 pag.

ERRORES DE REDONDEO……………..…………………………………..….2 pag.

ARITMÉTICA DEL COMPUTADOR...……….…………………………….....2 pag.

PRINCIPALES CAUSAS DE ERRORES EN MÈTODOS NUMÈRICOS..…4 pag.

BASES NUMERICAS…………………………………………………………….6 pag.

NUMEROS EN LAS COMPUTADORAS.…………...…………………………7 pag.

EJEMPLOS DE PROBLEMAS RELACIONADOS CON SISTEMAS


NUMÈRICOS EMPLEADOS POR ORDENADORES ……………………….9 pag.

CONCLUSIÒN…………………………………………………………..………10 pag.

BIBLIOGRAFIA………………………………………………………………...11 pag.
INTRODUCCIÒN

Los métodos numéricos son técnicas mediante las cuales es posible formular problemas
matemáticos de tal forma que puedan resolverse usando operaciones aritméticas. Los
métodos numéricos nos vuelven aptos para entender esquemas numéricos a fin de
resolver problemas matemáticos, de ingeniería y científicos en una computadora,
reducir esquemas numéricos básicos, escribir programas y resolverlos en una
computadora y usar correctamente el software existente para dichos métodos y no solo
aumenta nuestra habilidad para el uso de computadoras sino que también amplia la
pericia matemática y la comprensión de los principios científicos básicos. El análisis
numérico trata de diseñar métodos para “aproximar” de una manera eficiente las
soluciones de problemas expresados matemáticamente. El objetivo principal del análisis
numérico es encontrar soluciones “aproximadas” a problemas complejos utilizando sólo
las operaciones más simples de la aritmética. Se requiere de una secuencia de
operaciones algebraicas y lógicas que producen la aproximación al problema
matemático. Todos los resultados de la aplicación de métodos numéricos van
acompañados de un error que es conveniente estimar, además de mantener dichos
errores dentro de límites aceptables. Errores inherentes o heredados Son los errores o
valores numéricos con que al operar pueden deberse a diversas causas. Los métodos
numéricos ofrecen soluciones aproximadas muy cercanas a las soluciones exactas; la
discrepancia entre una solución verdadera y una aproximada constituye un error, por lo
que es importante saber qué se entiende por aproximar y aprender a cuantificar los
errores, para minimizarlos.
ERRORES DE REDONDEO

Un error de redondeo es la diferencia entre la aproximación calculada de un número y


su valor matemático exacto debida al redondeo. Uno de los objetivos del análisis
numérico es estimar errores en los cálculos, incluyendo el error de redondeo, cuando se
utiliza ecuaciones o algoritmos de aproximación, especialmente cuando se utiliza un
número finito de dígitos para representar números reales “que en teoría tiene un número
infinito de dígitos”. Cuando se realiza una secuencia de cálculos sujetos a error de
redondeo, los errores pueden acumularse, a veces dominando el cálculo. En problemas
mal condicionados, se puede acumular un error significativo

Casi la totalidad de los números reales requieren, para su representación decimal, de una
infinidad de dígitos. En la práctica, para su manejo sólo debe considerarse un número
finito de dígitos en su representación, procediéndose a su determinación mediante un
adecuado redondeo. Los errores de redondeo se deben a que las computadoras sólo
guardan un número finito de cifras significativas durante un cálculo.

Las siguientes reglas dan la pauta a seguir en el redondeo de números cuando se


realizan cálculos a mano:

 En el redondeo, se conservan las cifras significativas y el resto se descarta. El


último dígito que se conserva se aumenta en uno si el primer dígito descartado
es mayor de 5. De otra manera se deja igual. Si el primer digito descartado es 5 o
es 5 segundo de ceros. entonces el último dígito retenido se incrementa en 1,
sólo si es impar.
 En la suma y en la resta, el redondeo se lleva acabo de forma tal que el último
dígito en la columna de las milésimas.
 Para la multiplicación y para la división el redondeo es tal que la cantidad de
cifras significativas del resultado es igual al número más pequeño de cifras
significativas que contiene la cantidad en la operación.
 Para combinaciones de las operaciones aritméticas, existen dos casos generales.
Se puede sumar o restar el resultado o de las divisiones. (Multiplicación o
División) +/- (multiplicación o división) o también se pueden multiplicar o
dividir los resultados de las sumas y las restas.

ARITMÉTICA DEL COMPUTADOR

Partiremos entonces describiendo a un sistema de numeración como un conjunto de


símbolos usados para representar información numérica. Tenga en cuenta que el número
de símbolos de este conjunto depende de la base del sistema de numeración. La
aritmética que realiza una computadora es diferente de la aritmética de los cursos de
matemáticas. Para cada computadora hay una cifra positiva llamada el épsilon () de la
computadora que es la cantidad positiva más grande tal que 1 + = 1 Su existencia hace
que la propiedad de asociatividad de la suma no se cumpla siempre.
El más conocido y usado comúnmente es el sistema de numeración decimal, pero en
computación los más utilizados son: el binario para efectuar operaciones aritméticas, el
octal y hexadecimal para efectuar códigos intermedios que resultan más favorables que
convertir decimales a binarios o al contrario

El usuario se comunica con la computadora en sistema decimal, es decir, introduce en


ella y extrae de ella números en base decimal.

Al recibir los datos, para poder trabajar con ellos, la computadora los convierte al
sistema binario, su lenguaje natural de operación.

Todas las operaciones se efectúan en binario y los resultados obtenidos, antes de ser
entregados al usuario, la máquina los convierte al sistema decimal. Claro está que la
computadora realiza estos procesos a enormes velocidades, de manera que el usuario ni
se entera de lo que sucede ahí dentro.

Sin embargo, al efectuar las conversiones y realizar los cálculos se suscitan pequeños
errores que, si no se prevén, pueden propagarse y arrojar resultados muy inexactos o
totalmente absurdos. Por eso es tan importante el entender la aritmética de las
computadoras e identificar las situaciones en que pueden ocurrir errores severos.

La operación interna de una computadora se basa en la aritmética binaria, en la que la


base es el 2 y sólo hay dos símbolos: 0 y 1, pues la memoria de la máquina consiste en
un vasto número de dispositivos de registro magnético y electrónico, cada uno de los
cuales sólo puede presentar uno de dos posibles estados: magnetizado en un sentido,
representando al cero, o magnetizado en el otro sentido, representando al uno.
PRINCIPALES CAUSAS DE ERRORES EN MÈTODOS NUMÈRICOS

A lo largo del tiempo, los métodos numéricos han sido desarrollados con el objeto de
resolver problemas matemáticos cuya solución es difícil o imposible de obtener por
medio de los procedimientos tradicionales.

Las soluciones que ofrecen los métodos numéricos son aproximaciones de los valores
reales y, por tanto se tendrá un cierto grado de error que será conveniente determinar.
Aunque la perfección es una meta digna de alabarse es difícil si no imposible de
alcanzarse. Las aproximaciones numéricas pueden introducir errores.

Los errores numéricos se generan con el uso de aproximaciones para representar las
operaciones y cantidades matemáticas. Esto incluye errores de truncamiento que
resultan de representar aproximadamente un procedimiento matemático exacto, y los
errores de redondeo, que resultan de presentar aproximadamente números exactos. Para
los tipos de errores, la relación entre el resultado exacto o verdadero y el aproximado

ERRORES DE REDONDEO

Los errores de redondeo se deben a que las computadoras solo guardan un numero finito
de cifras significativas durante un calculo. Las computadoras realizan esta función de
maneras diferentes; esta técnica de retener solo los primeros siete términos se llamó
“truncamiento” en el ambiente de computación. De preferencia se llamara de corte, para
distinguirlo de los errores de truncamiento. Un corte ignora los términos restantes de la
representación decimal completa.

La mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los errores
de redondeo parecerían no ser muy importantes. Sin embargo, hay dos razones del por
qué pueden resultar críticos en algunos métodos numéricos:

Ciertos métodos requieren cantidades extremadamente grandes para obtener una


respuesta. Además, estos cálculos a menudo dependen entre si, es decir, los cálculos
posteriores son dependientes de los anteriores. En consecuencia, aunque un error de
redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso
de la gran cantidad de cálculos puede ser significativo.

El efecto de redondeo puede ser exagerado cuando se llevan a cabo operaciones


algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya
que este caso se presenta en muchos métodos numéricos, el error de redondeo puede
resultar de mucha importancia.

ERRORES DE TRUNCAMIENTO EN SERIES DE TAYLOR

Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar
de un procedimiento matemático exacto.

Estos tipos de errores son evaluados con una formulación matemática: la serie de
Taylor. Taylor es una formulación para predecir el valor de la función en Xi+1 en
términos de la función y de sus derivadas en una vecindad del punto Xi.

Siendo el termino final:

Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1

En general, la expansión en serie de Taylor de n-ésimo orden es exacta par aun


polinomio de n-ésimo orden. Para otras funciones continuas diferenciables, como las
exponenciales o senoidales, no se obtiene una estimación exacta mediante un numero
finito de términos. Cada una de los términos adicionales contribuye al mejoramiento de
la aproximación, aunque sea un poco.

ERROR NUMERICO TOTAL

El error numérico total es la suma de los errores de redondeo y de truncamiento. La


única forma de minimizar los errores de redondeo es la de incrementar el número de
cifras significativas de la computadora.

Representación gráfica de las ventajas y desventajas entre errores de redondeo y


truncamiento que en ocasiones influyen en el curso de un método numérico. El punto
óptimo muestra donde el error de redondeo comienza a negar los beneficios dados por la
reducción del tamaño de paso.
ERRORES POR EQUIVOCACIÓN

En los primeros años de la computación los resultados numéricos erróneos fueron


atribuidos algunas veces al mal funcionamiento de la computadora misma. Hoy día esta
fuente de error es muy improbable y la mayor parte de las equivocaciones se atribuye a
errores humanos.

Las equivocaciones ocurren a cualquier nivel del proceso de modelación matemática y


pueden contribuir con todas las otras componentes del error. Las equivocaciones, por lo
general se pasan por alto en la discusión del método numérico. Esto sin duda prueba el
hecho de que los errores de torpeza son, hasta cierto punto inevitables.

ERRORES DE FORMULACIÓN

Los errores de formulación o de modelamiento degeneran en lo que se podría considerar


como un modelo matemático incompleto, ya que si se está usando un modelo deficiente,
ningún método numérico generara los resultados adecuados.

ERROR DE TRUCAMIENTO

Los errores por truncamiento son aquellos que resultan al usar una aproximación en
lugar de un procedimiento matemático exacto. Por ejemplo, se puede aproximar la
derivada de la velocidad de un paracaidista mediante la ecuación de diferencia finita
dividida de la forma:

Se introdujo un error de truncamiento en la solución, ya que la ecuación de diferencias


solo se aproxima el valor verdadero de la derivada. Además, para obtener conocimiento
de las características de estos errores se regresará a la formulación matemática usada
ampliamente en los métodos numéricos para expresar funciones en forma polinomial.

BASES NUMERICAS

Un sistema numérico está compuesto de dígitos numéricos y su uso esta regido por
normas. Los números se pueden representar en distintos sistemas de numeración que se
diferencian entre si por su base. Así el sistema de numeración Decimal es de Base 10, el
Binario de Base 2 y el Hexadecimal de Base 16. El sistema numérico de uso más
frecuente es el sistema numérico decimal, ó de Base 10. Se denomina de Base 10 debido
a que utiliza diez digitos, y combinaciones de estos digitos, para representar todos los
números posibles.

El Sistema Decimal: Su base es 10. Emplea 10 caracteres o dígitos diferentes para


representar una determinada cantidad: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. El valor de cada
símbolo depende de su posición dentro de la cantidad a la que pertenece. Es el sistema
que usamos a diario y con el que estamos familiarizados.

𝟏𝟎𝟗 𝟏𝟎𝟖 𝟏𝟎𝟕 𝟏𝟎𝟔 𝟏𝟎𝟓 𝟏𝟎𝟒 𝟏𝟎𝟑 𝟏𝟎𝟐 𝟏𝟎𝟏 𝟏𝟎𝟎
100 1000000000 100000000 10000000 1000000 100000 10000 1000 100 10 1

. Ejemplo: 7935 = (103 x 7) + (102 x 9) + (101 x 3) + (100 x 5) 7935 = (1000 x 7) +


(100 x 9) + (10 x 3) + (1 x 5) = 7000+900+30+5 109 108 107 106 105 104 103 102 101

El Sistema Binario: Su base es 2, es el sistema digital por excelencia. También llamado


sistema de base 2, emplea dos símbolos ó dígitos: 0 y 1. Estos valores reciben el nombre
de bits (dígitos binarios). Las combinaciones de cero y unos pueden representar todos
los números posibles. La representación se hace en podencas de 2.

El Computador utilizan las asociaciones de bits para realizar sus operaciones (por
ejemplo, cuando envían información por sus circuitos internos, transmite un
determinado número de bits simultáneamente)

Palabra: Número de bits que un computador puede procesar en un evento ó instrucción


por unidad de procesamiento (calculado en Hz).

Tamaño de Palabra: Es la cantidad ó longitud de bits que posee un evento o instrucción,


cada valor recibe un nombre propio.

El Sistema Hexadecimal: Su base es 16, está compuesto por 16 símbolos: 0, 1, 2, 3, 4,


5, 6, 7, 8, 9, A(10), B(11), C(12), D(13), E(14), F(15). Es uno de los sistemas más
utilizados en electrónica, ya que además de simplificar la escritura de los números
binarios.

NUMEROS EN LAS COMPUTADORAS

Al escribir algunas letras o palabras, el ordenador se traduce en números como los


ordenadores sólo entienden números. Un equipo puede entender posicional sistema
número donde hay unos pocos símbolos dígitos y estos símbolos representan valores
diferentes en función de la posición que ocupan en el número.

El valor de cada dígito en el número puede determinarse mediante el dígito, la posición


del dígito en el número y la base del sistema de numeración base donde se define como
el número total de dígitos disponibles en el sistema.

El usuario se comunica con la computadora en sistema decimal, es decir, introduce en


ella y extrae de ella números en base decimal. Al recibir los datos, para poder trabajar
con ellos, la computadora los convierte al sistema binario, su lenguaje natural de
operación. Todas las operaciones se efectúan en binario y los resultados obtenidos,
antes de ser entregados al usuario, la máquina los convierte al sistema decimal. Claro
está que la computadora realiza estos procesos a enormes velocidades, de manera que el
usuario ni se entera de lo que sucede ahí dentro.
Sin embargo, al efectuar las conversiones y realizar los cálculos se suscitan pequeños
errores que, si no se prevén, pueden propagarse y arrojar resultados muy inexactos o
totalmente absurdos. Por eso es tan importante el entender la aritmética de las
computadoras e identificar las situaciones en que pueden ocurrir errores severos.

La operación interna de una computadora se basa en la aritmética binaria, en la que la


base es el 2 y sólo hay dos símbolos: 0 y 1, pues la memoria de la máquina consiste en
un vasto número de dispositivos de registro magnético y electrónico, cada uno de los
cuales sólo puede presentar uno de dos posibles estados: magnetizado en un sentido,
representando al cero, o magnetizado en el otro sentido, representando al uno. Cada
dispositivo magnético es un dígito binario, denominado bit (abreviatura de "binary
digit").

Los bits se agrupan en unidades llamadas palabras, las cuales pueden contener 8, 16, 32
o 64 bits, dependiendo de la computadora de que se trate (los tamaños de palabra más
usuales son los de 16 o de 32 bits). También se utilizan otras unidades denominadas
bytes, constituidos generalmente por 8 bits, y utilizados como particiones de palabras,
para representar caracteres. Así, por ejemplo, una palabra de 32 bits consta de 4 bytes.

La manera en que se usan los bits para registrar los números enteros y los números
fraccionarios, varía en función del diseño de la computadora

LOS NÙMEROS ENTEROS EN LAS COMPUTADORA

Los números enteros requieren de al menos una palabra para almacenarse dentro de la
memoria de la computadora; si el tamaño de palabra de la computadora es de 2 bytes
(16 bits), el primer bit registra el signo: positivo si es 0, negativo si es 1, y los 15 bits
restantes se usan para registrar números enteros binarios en el rango de
000000000000000 a 111111111111111.

Al convertir el número binario 111111111111111 a sistema decimal, se obtienen las


cotas inferior y superior en sistema decimal:

214 + 213 + 212 + 211 + 210 + 29 + 28 + 27 + 26 + 25 + 24 + 23 + 22 + 21 + 20 = 215 - 1 = 32767

LOS NÙMEROS REALES EN LAS COMPUTADORAS

Las computadoras también manejan los números reales en sistema binario, pero no
pueden hacerlo de manera exacta, porque el número de dígitos está limitado por el
tamaño de palabra de cada máquina. La memoria de la computadora impone así una
restricción a la precisión y exactitud de los números reales, pues al registrarlos,
necesariamente son redondeados, cometiendo con ello pequeños errores. Claro que esta
limitación no es privativa de las computadoras; en los cálculos a mano o usando
cualquier tipo de calculadora, también tenemos que hacer redondeos.

La forma de registrar un número real en una computadora digital depende del diseño del
hardware y del software; sin embargo, el formato es del mismo tipo en todos los casos y
se basa en el principio de utilizar la notación de punto flotante normalizado.
Cualquier número real decimal X puede ser expresado en notación científica
normalizada; ésta consiste en expresar el número como una potencia de 10, asignándole
el exponente n que resulte de desplazar el punto decimal las posiciones necesarias para
que todos los dígitos significativos del número en cuestión queden inmediatamente a la
derecha del punto, garantizando que el primero de ellos sea diferente de cero:

X = F x 10n

Donde F es un número menor que 1 y mayor o igual que 0.1: 0.1  F < 1 y n es un
entero positivo, negativo o cero: n  Z

EJEMPLOS DE PROBLEMAS RELACIONADOS CON SISTEMAS


NUMÈRICOS EMPLEADOS POR ORDENADORES

TRANSFORMACIONES ENTRE BASES BINARIA Y DECIMAL

Para transformar un número binario a decimal: Basta tener en cuenta las expresiones (3.2) y
(3.3), en las que b = 2.

Ejemplo 1:

Transformar a decimal los siguientes números binarios:

110100; 0.10100; 10100.001 110100)2 = (1×25 ) + (1×24 ) + (1×22 ) = 25 + 24 + 22 = 32 + 16 +4


= 52)10

0.10100)2 = 2-1 + 2-3 = (1/2) + (1/8) = 0.625)10

10100.001)2 = 24 + 22 + 2-3 = 16+4+(1/8) = 20125)10

Observando el Ejemplo 1 se deduce que se puede transformar de binario a decimal


sencillamente sumando los pesos de las posiciones en las que hay un 1, como se pone de
manifiesto en el Ejemplo 2.
CONCLUSIÒN

Los métodos de numeración permiten una mejor utilización de tu sistema operativo,


ejecutando las diversas tareas que se ejecutan en el leguaje máquina, gracias a esto se le
dan diferentes usos a los sistemas de numeración, algunos son muy complejos otros son
parecen ser tan anticuados que solo utilizan dos dígitos pero todos sirven de manera que
ayudan a un mejor entendimiento entre la comunicación que comprende al usuario y la
computadora. Al final todo sobrelleva a un mejor entendimiento del lenguaje utilizado
por nuestros ordenadores. Se puede decir que todo esto ayuda a obtener un mejor
desarrollo tecnológico, y un mejor avance. El más conocido y usado comúnmente es el
sistema de numeración decimal, pero en computación los más utilizados son: el binario
para efectuar operaciones aritméticas, el octal y hexadecimal para efectuar códigos
intermedios que resultan más favorables que convertir decimales a binarios o al
contrario.

Con el auge cada vez mayor de la informática es evidente que los sistemas
computacionales se han perfeccionado. En actualidad los dispositivos digitales
computadoras y calculadoras pueden realizar un gran número de operaciones sin
cometer “errores”, es decir trabajan lo más exacto posible. Pero a pesar de toda esta
“perfección” al trabajar con estos sistemas o dispositivos, suele resultar que dichos
procesos u operaciones den una respuesta equivocada, lo cual puede obedecer a errores
de tipo humanos fórmulas incorrectas, errores de lógica en los programas, tipográficos,
etc., errores subyacentes al diseño del método “truncamiento de fórmulas series” y
errores inherentes al funcionamiento del dispositivo digital Aritmética finita.

Cada vez que se apliquen métodos numéricos es pertinente procurar la minimización de


los errores que se pueden presentar. Así que se debe conocer porque se presentan, que
tanto se pueden tolerar y que tan buena son las aproximaciones que se obtengan.

Los errores de redondeo surgen al usar una calculadora o una computadora para
cálculos con números reales ya que la aritmética de la maquina solo usa números con
cantidades finitas de cifras de tal manera que los cálculos se realizan únicamente con
resultados aproximados a los números verdaderos. Existen varias conversiones
alternativas para representar números enteros, tanto positivos como negativos.
BIBLIOGRAFÌA

MÉTODOS NUMÉRICOS PARA INGENIEROS. C.Chapra, Steven, Et al. Ed MC


GRAW-HILL . México 1995. 641 pp.

METODOS NUMERICOS APLICADOS A LA INGENIERIA. Nieves Hurtado, Antonio,


Et al. Ed. Continental. Segunda reimpresión. México 1997. 602pp

METODOS NUMERICOS.Rafael Iriarte V. Balderrama Ed. trillas. Primera edición.


México 1990

wikipedia (2018). Wikipedia enciclopedia libre. wikipedia. Recuperado de.


https://es.wikipedia.org/wiki/Base_(aritm%C3%A9tica)

Das könnte Ihnen auch gefallen