Síguenos en YouTube:
-- CERRAR --

10 ecuaciones ¡que cambiaron el mundo!

Teorema de pitágoras
Compartir en Facebook

Para muchos las matemáticas no son lo más importante, pero en realidad, estas conforman la base para todas las ciencias, para todo lo cuantificable en el universo y nuestro mundo, ayudando a entender muchas reglas importantes de la física, química y más, así que porque no aprender un poco sobre las ecuaciones más importantes para el mundo.


Teorma de Pitágoras

Aunque los babilonios sabían de esta relación entre los catetos y la hipotenusa de un triángulo rectángulo miles de años antes, fueron los pitagóricos quienes la hicieron teorema al formular una demostración matemática. El concepto, a pesar de su aparente simplicidad, es aplicable en espacios con mayores dimensiones o con curvaturas, además de ser una pieza clave para el entendimiento de trigonometría y los números complejos.


También puedes leer: ¿Por qué suena el estómago?
Teorema de pitágoras

Teorema de pitágoras


Identidad de logaritmos

John Napier introdujo el concepto del logaritmo para simplificar cálculos que, de otro modo, serían tediosos y propensos a inducir errores. Como el logaritmo de un producto es la suma de los logaritmos de sus factores, una complicada multiplicación de números con varias cifras se reduce a mirar una tabla precalculada de logaritmos y realizar una simple suma. Su invención cambió por siempre la forma en que hacemos cálculos para navegación, ingeniería, y ciencia.


Identidad de Logaritmos

Identidad de Logaritmos


Cálculo diferencial

El cálculo es el estudio matemático del cambio. ¿Cómo cambia la posición de un planeta, o la velocidad de un cohete, con el paso del tiempo? En la antigüedad rondaron ideas para abordar esta clase de problemas, pero fueron Gottfried Leibniz e Isaac Newton quienes esclarecieron las reglas de esta poderosa herramienta que hoy llamamos cálculo diferencial. Un concepto central en nuestro un entendimiento sobre la naturaleza del espacio, el tiempo, y el movimiento.


Cálculo diferencial

Cálculo diferencial


Identidad de euler

La identidad matemática considerada más “bella”, pues relaciona tantos conceptos aparentemente tan distintos, en realidad es un caso particular de la fórmula e^(ix) = cos(x)+ i sin(x) descubierta por Leonhard Euler. Esta fórmula generaliza la operación de exponenciación para números complejos que—si se les imagina como puntos sobre un plano—es tan simple como hacerlos “girar” alrededor del origen ocupado por el número 0.


Identidad de Euler

Identidad de Euler


Distribución normal

Buscando modelar errores en mediciones experimentales, Carl Friedrich Gauss introdujo lo que hoy conocemos como la distribución normal. Pero fue Marquis de Laplace quien vislumbró su extenso dominio de aplicación: siempre que se suman una gran cantidad de variables aleatorias, en condiciones típicas, el resultado será una distribución normal. Por eso la distribución aparece por todas partes, tanto en el estudio de ciencias naturales como las sociales.


Ecuación de Distribución Normal

Ecuación de Distribución Normal


Ecuaciones de Maxwell

James Clerk Maxwell encapsuló, en sólo cuatro ecuaciones, las observaciones de generaciones de científicos sobre el electromagnetismo. Lo genial es que, por intimidantes que parezcan, cada ecuación encapsula una idea relativamente sencilla. De izquierda a derecha y de arriba a abajo: la fuente de un campo eléctrico (E) son las cargas eléctricas; pero para un campo magnético (B) no hay “cargas” (o monopolos) magnéticos; un campo magnético en movimiento induce un campo eléctrico; mientras que un campo magnético se puede inducir por una corriente o un campo eléctrico en movimiento.


Ecuaciones de Maxwell

Ecuaciones de Maxwell


Entropía termodinámica

Todos sabemos que si olvidas tu café luego de un rato se enfriará, el calor se transfiere de la bebida al ambiente buscando el equilibrio. Pero fue Ludwig Boltzmann quien finalmente entendió la razón fundamental por la que esto ocurre: La entropía, proporcional al logaritmo del número de formas en las que por ejemplo puedes acomodar los átomos de un fluido, tiende a aumentar simplemente porque hay más configuraciones con entropía alta que con entropía baja. ¡Es simple probabilidad!


Entropía termodinámica

Entropía termodinámica


Relatividad general

E = mc^2 será la más famosa, pero no la más importante ecuación descubierta por Albert Einstein. Así como las ecuaciones de Maxwell describen campos electromagnéticos usando cargas y corrientes; las ecuaciones de campo de Einstein describen a la gravedad como la curvatura en el espacio-tiempo causada por la presencia de masa y energía. La constante cosmológica Λ, “mi peor tropiezo” según Einstein quien creyó fue un error incluirla, hoy sabemos es fundamental para explicar la expansión del universo en que vivimos.


Ecuación de la relatividad general

Ecuación de la relatividad general


Ecuación de Scrödinger

La función de onda (Ψ) es la descripción más completa que se puede dar sobre un sistema cuántico—no sólo de átomos y moléculas, sino también objetos grandes como gatos y, posiblemente, el universo entero. Esta función identifica a cada punto en el espacio un número complejo y el “tamaño” de ese número indica la probabilidad de encontrar allí a una partícula. Lo que la ecuación de Erwin Scrödinger describe es cómo el sistema entero, con todas sus ondas-partículas incluidas, evoluciona con el paso del tiempo.


ecuación de Scrödinger

ecuación de Scrödinger


Entropía informática

La entropía, definida por Claude E. Shannon, mide la cantidad de información (el número de bits) que necesitas para codificar mensajes con cierta distribución de probabilidad conocida. En español, por ejemplo, la letra “a” es mucho más común que la “m” de modo que, analizando la frecuencia con que diferentes letras (o grupos de letras) aparecen en las palabras, puedes comprimir un mensaje usando cadenas de bits cortas para secuencias comunes, y cadenas más largas para aquellas que no lo son tanto.


CORRECCIÓN: La fecha en la imagen es equivocada, debería ser 1948, cuando Shannon publicó su artículo “Una Teoría Matemática de la Comunicación”.


Entropia Informática

Entropia Informática


Goncalves Tonny
Visitas:


La real historia de Lucifer antes de caer al abismo

FOREST MACHINE RODEO - Meanwhile In Finland EP 1