martes, 16 de marzo de 2010

Modelar estructuras

Las cargas muertas y las cargas vivas se discriminan de acuerdo con la masa de los materiales,y la ocurrencia segun el uso:

Las estructuras y su material dan una lectura constructiva y diferencias en cuento a las cargas ocasionadas y como se aplican en el sistema estructura, algunas diferencias se puedesn apreciar en las siguientes





Cargas muertas





cargas vivas





cargas de viento



CARGAS DE VIENTO (W)
Las cargas de viento y explosiones producen presión o succión sobre las superficies expuestas de las construcciones. La carga de viento es una carga muy importante en el diseño de estructuras altas o muy flexibles, como los puentes colgantes, o de gran superficie lateral, como las bodegas o grandes cubiertas.
Los factores que influyen en la magnitud de esta carga son: la velocidad del viento y su variación con la altura, la magnitud de las ráfagas, las condiciones locales de la superficie del terreno circunvecino, la forma de la superficie expuesta al viento, la zona o región; es especialmente crítico el efecto en aquellas zonas del mar Caribe sometidas a huracanes o ciclones, que producen velocidades del viento superiores a los 200 KMH.

La presión del viento ha causado muchos daños inesperados. Durante los procesos de construcción es común que las paredes de ladrillo o de bloques de concreto, queden sin apoyo hasta que se construyan los elementos de amarres de los techos, con lo que vientos ligeros pueden derribar estos muros sin apuntalamiento, debido a la gran superficie expuesta a la presión del viento.
Las estructuras muy flexibles como los cables de transmisión o los puentes colgantes pueden recibir fuerzas periódicas que inducen vibraciones, causando hasta la falla. Es famosa la falla del Puente de Tacoma (USA), en 1940, que con un viento suave entró en resonancia, produciéndose su colapso, que afortunadamente sirvió para impulsar el estudio del fenómeno y definió un nuevo rumbo en el diseño de puentes colgantes y en la consideración del efecto dinámico del viento como carga o acción estructural.


La norma NSR-98, presenta métodos para evaluar el efecto del viento sobre las edificaciones y sus componentes. En el denominado «método simple», que puede aplicarse cuando los efectos producidos por el viento no son fundamentales en el diseño, la fuerza de viento W se obtiene multiplicando la presión del viento p, por el área lateral de la edificación.

Conceptualmente, cuando las estructuras impiden el flujo del viento, la energía cinética de éste reconvierte en energía potencial de presión, lo que causa la carga de viento. El efecto del viento sobre una estructura depende de la densidad y velocidad del aire, del ángulo de incidencia del viento, de la forma y de la rigidez de la estructura y de la rugosidad de su superficie.

En las NTC-Viento del RCDF-87 se especifica el cálculo de estas presiones de acuerdo a las características de la estructura.

En general ni se especifican normas de diseño para el efecto de huracanes o tornados, debido a que se considera incosteable el diseño contra estos efectos; sin embargo, se sabe que el detallado cuidadoso del refuerzo, y la unión de refuerzos en los sistemas de piso con muros mejora notablemente su comportamiento.
Para propósitos de diseño, las cargas de viento pueden tratarse usando un procedimiento estático o uno dinámico.

En el procedimiento estático, la fluctuación de la presión causada por un viento soplando continuamente se aproxima por una presión media que actúa sobre los lados de barlovento y sotavento de la estructura. Esta presión q se define por su energía cinética q = ½ ½v2, donde es la densidad del aire. Si tomamos =2.376 (10-3) slug/ft3 y especificamos la velocidad del viento v en millas por hora, tenemos después de convertir unidades

q psf = 0.00256 (v mi/h)2

Aquí q se mide en libras por pie cuadrado y actúa sobre una superficie plana perpendicular a la velocidad del viento. Un viento de 100 mph suele usarse para el diseño de muchas estructuras de poca altura. Sin embargo, valores más exactos de la velocidad, que dependen de la localización geográfica de la estructura y de su elevación, pueden obtenerse en los mapas de zonificación eólica, dadas generalmente en las reglamentaciones de diseño (como las de la Sociedad Americana de Ingenieros Civiles, ASCE por sus siglas en inglés). Esos mapas son elaborados por el Servicio Meteorológico y representan en general la máxima velocidad del viento en una elevación especificada del terreno, durante un período de recurrencia de 50 años. La elevación sobre el terreno es aquí importante ya que la velocidad del viento crece con la elevación.
En consecuencia, cuanto más alta es la estructura, más severa resulta la carga de viento.

Una vez calculada la presión q del viento, su magnitud se multiplica por varios coeficientes para obtener la presión p estática de diseño que se aplica a la estructura. Por ejemplo en el código ANSI A58. 1-1982 hay 3 coeficientes que toman en cuenta la importancia de la estructura, la posibilidad de ráfagas de viento y la diferencia de presión dentro y fuera de la estructura. La selección de esos factores depende de la altura y orientación de la estructura, de sus características de vibración y del número de aberturas en la estructura. En el reporte ASCE se usan también coeficientes geométricos o de forma.

Para edificios altos o cuya forma los hace sensibles al viento, se recomienda usar un procedimiento dinámico para determinar las cargas de viento. Esto requiere efectuar pruebas en túneles de viento de un modelo a escala del edificio y sus alrededores que simule el ambiente natural. Los efectos de la presión del viento sobre el edificio se determinan a partir de transductores de presión unidos al modelo. Además, si e modelo tiene características de rigidez en escala apropiada a la del edificio, pueden determinarse entonces las deflexiones dinámicas de éste.



Es importante reconocer el riesgo, la vulnerabilidad y la amenaza de las estructuras.

la amenaza sísmica se establece por zonas, la NSR-98 para Colombia determina las siguientes:




Se puede evidenciar el comportamiento con modelos a escala como lo muestra el siguiente video:



La medición de los sismos son en dos referentes, el primero Intensidad y el segundo mgnitud.Ambas expresadas en grados. Aunque a menudo son confundidas, expresan propiedades muy diferentes, como veremos a continuación
INTENSIDAD

La intensidad es una medida de los efectos causados por un sismo en un lugar determinado de la superficie terrestre. En ese lugar, un sismo pequeño pero muy cercano puede causar alarma y grandes daños, en cuyo caso decimos que su intensidad es grande; en cambio un sismo muy grande pero muy lejano puede apenas ser sentido ahí y su intensidad, en ese lugar, será pequeña.

Cuando se habla de la intensidad de un sismo, sin indicar dónde fue medida, ésta representa (usualmente) la correspondiente al área de mayor intensidad observada (área pleistocista).

Una de las primeras escalas de intensidades es la de Rossi-Forel (de 10 grados), propuesta en 1883. En la actualidad existen varias escalas de intensidades, usadas en distintos países, por ejemplo, la escala MSK (de 12 grados) usada en Europa occidental desde 1964 y adoptada hace poco en la Unión Soviética (donde se usaba la escala semiinstrumental GEOFIAN), la escala JMA (de 7 grados) usada en Japón, etc. Las escalas MM y MSK (propuesta como estándar internacional) resultan en valores parecidos entre sí (1 y 2).

La escala más común en América es la escala modificada de Mercalli (mm) que data de 1931. Ésta, detallada en el Apéndice, va del grado I (detectado sólo con instrumentos) hasta el grado XII (destrucción total), y corresponde a daños leves hasta el grado V. Como la intensidad varía de punto a punto, las evaluaciones en un lugar dado constituyen, generalmente, un promedio; por eso se acostumbra hablar solamente de grados enteros.

Es común representar en un mapa los efectos de un sismo mediante curvas, llamadas isosistas, que representan los lugares donde se sintió la misma intensidad. Generalmente se observan las mayores intensidades cerca de la zona epicentral; aunque, a veces, pueden existir factores, como condiciones particulares del terreno, efectos de guías de ondas, etc. (discutidos más adelante), que ocasionen que un sismo cause mayores daños a distancias lejanas del epicentro. Otro factor que hace que la región pleistocista no coincida con la epicentral, es que pueden reportarse las mayores intensidades en otros sitios; donde, debido a la concentración de población, un terremoto causará más daños (o al menos serán reportados más daños) que en una región comparativa o totalmente deshabitada.


Cuando una falla se propaga i. e., crece, preferentemente, en una dirección determinada, puede producir mayores intensidades en sitios situados a lo largo de esa dirección que a lo largo de otras. Este efecto se conoce con el nombre de directividad (4 y 5), y es uno de los factores que hacen que las isosistas no formen círculos concéntricos.

Como las intensidades son medidas de daños, y éstos están muy relacionados con las aceleraciones máximas causadas por las ondas sísmicas, es posible relacionarlos aproximadamente. Una de tantas relaciones es (6):

log a (cm/s²) = I/3 - 1/2,

donde I es la intensidad. Esta relación nos dice que una intensidad de XI (11.0) corresponde a aceleraciones del orden de 1468 cm/s2 = 1.5 g (g = 980 cm/s2 es la aceleración de la gravedad en la superficie terrestre), una intensidad de IX corresponde a 0.7 g, y una de VII a 0.07 g. Aparentemente la aceleración mínima que percibe el ser humano es del orden de 0.001 g, correspondiente a la intensidad II.

MAGNITUDES Y ENERGíA

C. Richter definió, en 1935, el concepto de "magnitud" pensando en un parámetro que describiera, de alguna manera, la energía sísmica liberada por un terremoto (6). La magnitud de Richter o magnitud local, indicada usualmente por está definida como el logaritmo (base 10) de la máxima amplitud (Amax, medida en cm) observada en un sismógrafo Wood-Anderson estándar (un sismógrafo de péndulo horizontal muy sencillo), menos una corrección por la distancia (D) entre el epicentro y el lugar de registro, correspondiente al logaritmo de la amplitud (Ao) que debe tener, a esa distancia, un sismo de magnitud cero (6):

ML= log (Amax) - log Ao (D).

Richter definió esta magnitud tomando como base las características de California, Estados Unidos (por lo que no es necesariamente aplicable a cualquier parte del mundo), y para distancias menores de 600 km (de aquí su nombre de "local").
Otra escala de magnitudes, muy usada para determinar magnitudes de sismos locales, es la escala basada en la longitud de la coda de los sismos (7). Es también logarítmica y se designa, usualmente, por Mc; es una escala muy estable, pues los valores obtenidos dependen menos que ML de factores como el azimut entre fuente y receptor, distancia y geología del lugar, que causan gran dispersión en los valores de ésta.

Para cuantificar los sismos lejanos se utilizan comúnmente dos escalas: la magnitud de ondas de cuerpo mb y la magnitud de ondas superficiales o M.
En varias partes del mundo se utilizan diferentes definiciones de estas magnitudes; casi todas ellas están basadas en el logaritmo de la amplitud del desplazamiento del terreno (la amplitud leída en el sismograma se divide entre la amplificación del sismógrafo para la frecuencia predominante de la onda correspondiente) corregida por factores que dependen de la distancia (a veces también de la región epicentral) y de la profundidad hipocentral, así como del periodo de las ondas observadas (8, 9, 10 y 11).

La magnitud de Richter tiene dos problemas graves: un sismo grande satura los sismógrafos cercanos a él (es decir, produce ondas mayores de las que los aparatos pueden registrar, resultando en registros que aparecen truncados), de manera que no podemos saber cuánto vale el desplazamiento máximo. Es común que los sismógrafos no saturados se hallen fuera del rango de los 600 km para el cual es válida la definición de . Sin embargo, es factible obtener una estimación de a partir de registros de acelerógrafos o de sismógrafos de gran rango dinámico, construyendo un sismograma pseudo-Wood-Anderson, mediante técnicas de filtrado y procesamiento digital (12 y 13).

Otro problema es que, la ruptura asociada con un sismo grande dura bastante tiempo y radia energía durante todo este tiempo; por lo tanto, como esta definición de magnitud se refiere solamente a una característica momentánea del sismograma, leída además en un instrumento de periodo corto, resulta que no puede distinguir entre un sismo que genere un pulso de una amplitud determinada y otro que produzca varios pulsos de la misma amplitud. Este efecto es conocido como saturación (también) de la magnitud, y hace que la magnitud de Richter sea confiable sólo para sismos menores del grado 7.

Este problema de la saturación de la magnitud se aplica también a los otros tipos de magnitudes mencionados: , que es leída también para periodos cortos, se satura alrededor del grado 7; , que es determinada de ondas de alrededor de 20s, se satura para grados mayores de 8.3 (14). En general, cualquier medida de magnitud se satura cuando el periodo dominante de las ondas observadas es menor que el tiempo de ruptura de la fuente sísmica. Para evitar este efecto han sido utilizadas escalas de magnitud basadas en medidas a periodos mucho más largos (15), y actualmente es común utilizar la magnitud de momento Mw (16), cuyo valor se calcula a partir del logaritmo del momento sísmico Mo como:

Mw = 2/3 Log Mo - 10.7,

el cual representa, en teoría, las frecuencias más bajas (14).

Por lo tanto, cada medida de magnitud evalúa un sismo a través de una "ventana" distinta de frecuencias. ML y m b valoran los pulsos de periodo corto, relacionados con la caída de esfuerzos y los detalles de la historia de la ruptura; MS mide periodos intermedios y depende, por lo tanto, de tendencias en la historia de ruptura, también depende fuertemente de la profundidad de la fuente; Mw y otras medidas de periodo largo miden las características promediadas de la fuente y se relacionan con las dimensiones y tiempos totales de la ruptura sísmica. Las particularidades de los sismos, observadas a través de las magnitudes, varían de lugar a lugar; por ejemplo, los que ocurren en las sierras peninsulares, en el norte de Baja California, presentan valores más pequeños de MS, para un sismo de mb dada, que los sismos que ocurren en el valle de Mexicali; esto puede indicar que los esfuerzos en el terreno son menores en el valle de Mexicali, donde existe una espesa capa de sedimentos y altas temperaturas asociadas con los centros de dispersión (17 y 18).

La comparación entre mb y MS para un sismo dado permite distinguir también sismos tectónicos de explosiones. La razón Ms/mbes siempre menor para sismos tectónicos que para explosiones, debido a la diferencia en los procesos de excitación de ondas y a la relativamente menor dimensión de las fuentes explosivas (1 l).

Aunque, como vimos arriba, las isosistas en general no forman círculos, existen varias relaciones aproximadas entre la magnitud de un sismo y su intensidad a cierta distancia de la fuente. Como ejemplo presentamos una apropiada para los sismos someros en México (19):

I = 8.16 + 1.45 M - 2.46 log R,

donde R es la distancia (en km) de la fuente al punto de observación.

Existen varias fórmulas que relacionan la magnitud de un sismo con su energía; diferentes fórmulas son aplicables a los sismos en diferentes lugares o suelos. Un ejemplo de la relación magnitud/ energía radiada, propuesto por Gutenberg y Richter (6), es:

log Es(ergs) = 11.4 + 1.5 M.

Puede usarse M para sismos pequeños a intermedios, pero para grandes es más apropiada Mw (16).x

Como ejemplos de energías radiadas podemos mencionar los sismos de Michoacán de 1985 (Mw = 8. 1) con Es = 3.8 X 10²³ ergs, y de Chile 1960 (Mw = 9.5) con ergs; mientras que los sismos medianos o pequeños, con magnitudes M = 5 y M = 3 generan y ergs, respectivamente. De aquí podemos ver que la energía liberada por los sismos medianos y pequeños es mucho menor que la liberada por los grandes (requeriríamos de 33 millones de sismos de magnitud 3, o 31 000 de magnitud 5 para liberar la energía correspondiente a uno de magnitud 8.0); por lo tanto, la ocurrencia de sismos pequeños no sirve como válvula de escape para la energía de deformación que dará lugar a sismos grandes.

Las ondas sismicas se propagan de diferente manera ya que son un tipo de onda elástica consistentes en la propagación de perturbaciones temporales del campo de esfuerzos que generan pequeños movimientos en un medio.
Tipos de ondas sismícas
-Ondas longitudinales o primarias (P). Son las ondas más rápidas. Las partículas vibran paralelamente a la dirección de propagación de la onda. Son capaces de atravesar materiales sólidos (rocas) y materiales fluidos (magma), aunque su velocidad disminuye al atravesar fluidos.
-Ondas transversales o secundarias (S). Las partículas se desplazan en un plano perpendicular al de propagación de la onda. Se propagan únicamente en medio sólido, no en fluidos.
-Ondas superficiales (L). se propagan por la superficie. Hay de dos tipos:
-Ondas de Love o de torsión. Las partículas vibran perpendicularmente a la dirección de propagación.
-Ondas de Rayleigh o circulares. Las partículas vibran de forma circular.



BIBLIOGRAFÍA Y REFERENCIAS

1. Berlin, G. (1980), Earthquakes and the Urban Environment. CRC Press, EUA.

2. Mayer-Rosa, D. (1986), Tremblements de terre. Origine, risque et aide. Comisión Suiza de la UNESCO y Comisión Suiza de Geofísica.

3. Figueroa, J. (1963), "Isosistas de macrosismos mexicanos". Ingeniería, vol. 33, pp. 45-68.

4. Ben Menahem, A. (1961), "Radiation patterns of seismic surface waves from finite moving sources". Bull. Seismol. Soc. Amer., vol. 51, pp. 401-435.

5. Brune, J. (1976), "The physics of earthquake strong motion", en Seismic Risk and Engineering Decisions, Lomnitz, C. and Rosenblueth, E. (compiladores), Elsevier Scient. Publ. Co., Países Bajos, pp. 141-177.

6. Richter, C. (1958), Elementary Seismology. W. H. Freeman y Co., EUA.

7. Lee, W., R. Bennett y K. Meagher (1972), A Method for Estimating Magnitude of Earthquakes from Signal Duration. USGS, reporte de archivo abierto núm. 28.

8. Gutenberg, B. (1945), "Amplitudes of surface waves and magnitudes of shallow earthquakes". Bull. Seism. Soc. Amer., vol. 35, pp. 3-12.

9. Gutenberg, B., y C. Richter (1956), "Earthquake magnitude, intensity, energy, and acceleration". Bull. Seism. Soc. Amer., vol. 46, pp. 105-145.

10. Vanek, J., A. Zápotek, V. Kárnik, N. Kondorskaya, Yu. Rizmichenko, E. Savarensky, S. Solov'yov y N. Shebalin (1962), "Uniformación de las escalas de magnitud". Izvestiya Akad. Nauk URSS, Ser Geofiz., vol. 2, pp. 153-158.

11. Marshall, P., y P. Basham (1972), "Discrimination between earthquakes and explosions employing an improved Ms scale". Geoph. J. Roy. Astron. Soc., vol. 28, pp. 431-438.

12. Kanamori, H., y P. Jennings (1978), "Determination of local magnitude M from strong-motion accelerograms". Bull. Seism. Soc. Amer.,, vol. 68, pp. 471-485.

13. Nava, F. (1986), "Digital ML determination". Trabajo puesto a consideración.

14. Hanks, I., y H. Kanamori (1979), "A moment magnitude scale". J. Geophys. Res., vol. 84, pp. 2348-2350.

15. Brune, J., y C. King (1967), "Excitation of mantle Rayleigh waves of period 100s as a function of magnitude". Bull. Seism. Soc. Amer., vol. 57, pp. 1355-1365.

16. Kanamori, H. (1977), "The energy release in great earthquakes". J. Geophys. Res,. vol. 82, pp. 1981-1987.

17. Thatcher, W. (1972), "Regional variations of seismic source parameters in the Northern Baja California area". J. Geophys. Res., vol. 77, pp, 1549-1565.

18. Nava, F., y J. Brune (1983), "Source mechanism and surface wave excitation for two earthquakes in the northern Baja California area". Geoph. J. R. astr. Soc., vol. 73, pp. 739-763.

19. Esteva, L., y E. Rosenblueth (1964), "Espectros de temblores a distancias moderadas y grandes". Bol. Soc. Mex. Ing. Sis., vol. 2, pp. 1-18.

jueves, 4 de marzo de 2010

Leyes de Newton

1-Primera ley o ley de Inercia
Cuando no hay fuerza sobre un cuerpo no hay movimiento
La primera ley del movimiento rebate la idea aristotélica de que un cuerpo sólo puede mantenerse en movimiento si se le aplica una fuerza. Newton expone que
Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado a cambiar su estado por fuerzas impresas sobre él.[5]

Esta ley postula, por tanto, que un cuerpo no puede cambiar por sí solo su estado inicial, ya sea en reposo o en movimiento rectilíneo uniforme, a menos que se aplique una fuerza neta sobre él. Newton toma en cuenta, así, el que los cuerpos en movimiento están sometidos constantemente a fuerzas de roce o fricción, que los frena de forma progresiva, algo novedoso respecto de concepciones anteriores que entendían que el movimiento o la detención de un cuerpo se debía exclusivamente a si se ejercía sobre ellos una fuerza, pero nunca entendiendo como esta a la fricción.

En consecuencia, un cuerpo con movimiento rectilíneo uniforme implica que no existe ninguna fuerza externa neta o, dicho de otra forma, un objeto en movimiento no se detiene de forma natural si no se aplica una fuerza sobre él. En el caso de los cuerpos en reposo, se entiende que su velocidad es cero, por lo que si esta cambia es porque sobre ese cuerpo se ha ejercido una fuerza neta.

2-Segunda ley de Newton o Ley de fuerza

La segunda ley del movimiento de Newton dice que
el cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime.[6]

Esta ley explica qué ocurre si sobre un cuerpo en movimiento (cuya masa no tiene por qué ser constante) actúa una fuerza neta: la fuerza modificará el estado de movimiento, cambiando la velocidad en módulo o dirección. En concreto, los cambios experimentados en la cantidad de movimiento de un cuerpo son proporcionales a la fuerza motriz y se desarrollan en la dirección de esta; esto es, las fuerzas son causas que producen aceleraciones en los cuerpos. Consecuentemente, hay relación entre la causa y el efecto, esto es, la fuerza y la aceleración están relacionadas. Dicho sintéticamente, la fuerza se define simplemente en función del momento en que se aplica a un objeto, con lo que dos fuerzas serán iguales si causan la misma tasa de cambio en el momento del objeto.

En términos matemáticos esta ley se expresa mediante la relación:

Fuerza neta= diferencial de la cantidad de movimiento/diferencial de tiempo

Bajo la hipótesis de constancia de la masa y pequeñas velocidades, puede reescribirse más sencillamente como:

Fuerza= masa/aceleración

Es la ecuación fundamental de la dinámica, donde la constante de proporcionalidad distinta para cada cuerpo es su masa de inercia, pues las fuerzas ejercidas sobre un cuerpo sirven para vencer su inercia, con lo que masa e inercia se identifican. Es por esta razón por la que la masa se define como una medida de la inercia del cuerpo.

Por tanto, si la fuerza resultante que actúa sobre una partícula no es cero, esta partícula tendrá una aceleración proporcional a la magnitud de la resultante y en dirección de ésta. La expresión anterior así establecida es válida tanto para la mecánica clásica como para la mecánica relativista, a pesar de que la definición de momento lineal es diferente en las dos teorías: mientras que la dinámica clásica afirma que la masa de un cuerpo es siempre la misma, con independencia de la velocidad con la que se mueve, la mecánica relativista establece que la masa de un cuerpo aumenta al crecer la velocidad con la que se mueve dicho cuerpo.

De la ecuación fundamental se deriva también la definición de la unidad de fuerza o newton (N). Si la masa y la aceleración valen 1, la fuerza también valdrá 1; así, pues, el newton es la fuerza que aplicada a una masa de un kilogramo le produce una aceleración de 1 m/s². Se entiende que la aceleración y la fuerza han de tener la misma dirección y sentido.

La importancia de esa ecuación estriba sobre todo en que resuelve el problema de la dinámica de determinar la clase de fuerza que se necesita para producir los diferentes tipos de movimiento: rectilíneo uniforme (m.r.u), circular uniforme (m.c.u) y uniformemente acelerado (m.r.u.a).

Si sobre el cuerpo actúan muchas fuerzas, habría que determinar primero el vector suma de todas esas fuerzas. Por último, si se tratase de un objeto que cayese hacia la tierra con un resistencia del aire igual a cero, la fuerza sería su peso, que provocaría una aceleración descendente igual a la de la gravedad.

3.Tercera Ley o ley de acción y reacción
Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en direcciones opuestas.[6]

La tercera ley es completamente original de Newton (pues las dos primeras ya habían sido propuestas de otras maneras por Galileo, Hooke y Huygens) y hace de las leyes de la mecánica un conjunto lógico y completo.[7] Expone que por cada fuerza que actúa sobre un cuerpo, este realiza una fuerza de igual intensidad y dirección, pero de sentido contrario sobre el cuerpo que la produjo. Dicho de otra forma, las fuerzas, situadas sobre la misma recta, siempre se presentan en pares de igual magnitud y opuestas en dirección.

Este principio presupone que la interacción entre dos partículas se propaga instantáneamente en el espacio (lo cual requeriría velocidad infinita), y en su formulación original no es válido para fuerzas electromagnéticas puesto que estas no se propagan por el espacio de modo instantáneo sino que lo hacen a velocidad finita "c".

Es importante observar que este principio de acción y reacción relaciona dos fuerzas que no están aplicadas al mismo cuerpo, produciendo en ellos aceleraciones diferentes, según sean sus masas. Por lo demás, cada una de esas fuerzas obedece por separado a la segunda ley.