En matemáticas, la división entre cero es una división en la que el divisor es igual a cero, y que no tiene un resultado bien definido. En aritmética y álgebra, es considerada una «indefinición», y su mal uso puede dar lugar a aparentes paradojas matemáticas. En análisis matemático, es frecuente encontrar límites en los que el denominador tiende a cero. Algunos de estos casos se denominan «indeterminaciones», pero en ocasiones es posible calcular el valor de dicho límite.
No se debe confundir este concepto con el de los divisores de cero que existen en algunos anillos matemáticos (específicamente los que no son dominios de integridad). Sin embargo, estos aparecen cuando el cero es el dividendo, no el divisor (dividen al cero, no son divisibles por él). Todo número a divide al cero trivialmente, puesto que , pero los divisores de cero lo hacen de manera no trivial.
Este problema surgió en los años 650, cuando en India se comenzó a popularizar el uso del cero y los números negativos. El primero en aproximarse al planteamiento de este problema fue el matemático indio Bhaskara I, quien escribió que , en el siglo VII.
En los números naturales, enteros y reales, la división entre cero no posee un valor definido, debido a que para todo número , el producto , por lo que el 0 no tiene inverso multiplicativo.
Dicho en lenguaje muy sencillo: si dividimos por ejemplo 12 : 3 = 4 , sabemos que el resultado es correcto porque 4 x 3 = 12. Pero si dividimos por cero, es decir, por ejemplo, 8 : 0 = ? entonces no encontramos ningún número que multiplicado por 0 dé 8. Con lo cual la ecuación no tiene solución. Da igual que el dividendo sea 8 o cualquier otro número distinto de cero.
Si se intenta dividir cero entre cero ocurre el problema contrario: la solución no es única, pues la expresión es cierta para cualquier n (se dice que el cero es un elemento absorbente).
La división de dos números enteros m y n no siempre es otro número entero (véase Divisibilidad). Sin embargo es posible utilizar un algoritmo para dividir dos números cualesquiera, y cuyo resultado coincide con el cociente caso de que sean divisibles. Este algoritmo consiste en sustraer repetidamente al dividendo (m) el número divisor (n) hasta alcanzar un número comprendido entre 0 y n-1, ambos inclusive. La cantidad de veces que se sustrae al número divisor del número dividendo, se denomina cociente de la división y al número del que ya no se puede sustraer nada más se denomina resto.
Al intentar dividir un número (por ejemplo 2) entre cero ocurre lo siguiente:
nunca se alcanza un resto estrictamente menor que 2 aunque se reste 0 infinitas veces. Por lo tanto, la división no es posible.
Desde el punto de vista del análisis matemático, la indefinición de una división por cero puede estudiarse mediante el concepto de límite. Supongamos que tenemos la siguiente expresión:
La expresión es una indefinición: la función no está definida en x=0. No obstante, podemos analizar el comportamiento de la función en torno al 0, utilizando una aproximación al límite, por el lado positivo:
y por el lado negativo:
Cuando el valor de «tiende» a cero, alcanza un valor absoluto tan grande como se desee. Se dice que cuando «tiende» a cero por la derecha, «tiende» a infinito (); y que cuando «tiende» a cero por la izquierda, «tiende» a menos infinito (). Los límites laterales no coinciden, por lo que la función no tiene límite en 0.
Para tratar de sortear las dificultades expuestas, podemos tratar de añadir a los números reales dos elementos adicionales llamados más infinito y menos infinito, para formar los números reales extendidos. Sin embargo, no es posible definir la división por cero en este conjunto dado que, como se ha mostrado en la sección anterior, el signo no está bien definido.
Sin embargo, este problema no existe cuando se completa el conjunto con un solo elemento adicional. La recta real proyectiva y la esfera de Riemann son completaciones (o compactificaciones) de los reales y de los complejos respectivamente, que se obtienen añadiendo un único punto en el infinito . Topológicamente estos conjuntos son equivalentes a una circunferencia y a una esfera.
En ambos conjuntos es posible definir sin ninguna ambigüedad la división entre cero de cualquier número no nulo:
No obstante, la división es una indefinición, al igual que .
Una división por cero es en informática, y particularmente en programación, considerada como un clásico error lógico.
Puesto que muchos algoritmos informáticos clásicos de división usan el método de restas sucesivas, al ser el divisor cero, la resta como tal se ejecuta por siempre, ya que el dividendo nunca cambia. La aplicación en cuestión entra entonces en un bucle infinito.
Para prevenir esto, actualmente los procesadores matemáticos son capaces de detectar divisiones por cero en tiempo de ejecución, y llegado el caso, entregan informes de error distinguibles al sistema, para que éste termine el proceso que se está ejecutando.
Por su parte, los compiladores más modernos incorporan mensajes de error cuando una división por cero ocurre explícitamente, mientras que algunos incluso además intentan detectar divisiones por cero no explícitas. Aquellos lenguajes que incorporan manejo de excepciones pueden capturar este evento para que sea tratado apropiadamente, ejecutando un código especialmente dedicado a este caso.
En el caso particular de divisiones por cero en aritmética de coma flotante, el estándar IEEE indica que si el divisor se hace cero en algún momento, tal operación deberá dar como resultado el valor Inf (infinito), o particularmente NaN (Not a Number, "No es un Número").
Escribe un comentario o lo que quieras sobre División por cero (directo, no tienes que registrarte)
Comentarios
(de más nuevos a más antiguos)