Blogia

4actdani

Tensión

En física e ingeniería, se denomina tensión mecánica al valor de la distribución de fuerzas por unidad de área en el entorno de un punto material dentro de un cuerpo material o medio continuo.

Un caso particular es el de tensión uniaxial, que se define en una situación en que se aplica fuerza F uniformemente distribuida sobre un área A. En ese caso la tensión mecánica uniaxial se representa por un escalar designado con la letra griega σ (sigma) y viene dada por:

sigma=frac{F}{A}

Siendo las unidades [Pa] (pascal = [N/m²]), [MPa] = 106 [Pa] (y también [kp/cm²]).

La situación anterior puede extenderse a situaciones más complicadas con fuerzas no distribuidas uniformemente en el interior de un cuerpo de geometría más o menos compleja. En ese caso la tensión mecánica no puede ser representada por un escalar.

Si se considera un cuerpo sometido a tensión y se imagina un corte mediante un plano imaginario π que lo divida en dos, sobre cada punto del plano de corte se puede definir un vector tensión tπ que depende del estado tensional interno del cuerpo, de las coordenadas del punto escogido y del vector unitrio normal nπ al plano π. En ese caso se puede probar que tπ y nπ están relacionados por una aplicación lineal T o campo tensorial llamado tensor tensión:

{t_pi} = T(n_pi),

Tensión uniaxial (problemas unidimensionales)

La idea original de tensión se originó en dos simples observaciones sobre el comportamiento de cables de acero:

  1. Cuando un cable se estira bajo la acción de una fuerza F, para valores debajo de cierto límite F < Fc, se observa que el alargamiento ΔL es proporcional a la carga F dividida por el área de la sección transversal A del cable. Si se definía s = F/A, el alargamiento ΔL era proporcional a σ: ΔL= k·s.
  2. El fallo resistente del cable ocurría cuando la carga F superaba un cierto valor Fc que dependía del material del cable y del área de la sección transversal: Fc = σt A.

Estas observaciones sugerían que la característica fundamental que afecta a la deformación y el fallo resistente de los materiales es la magnitud s, que se llamó tensión ingenieril. Medidas más precisas hicieron notar que la proporcionalidad entre tensión ingenieril y el alargamiento no era exacta porque durante el estiramiento del cable la sección sufría un estrechamiento, por lo que A disminuía ligeramente. Sin embargo, si se definía la tensión real σ = F/A' donde A' representa ahora el área verdadera bajo la deformación, entonces se observaba una proporcionalidad perfecta para valores pequeños de F.

El coeficiente de Poisson se introdujo para dar cuenta de la relación entre el área inicial A y el área deformada A' . La introducción del coeficiente de Poisson en los cálculos estimaba correctamente la tensión al tener en cuenta que la fuerza F se distribuía en un área algo más pequeña que la sección inicial, lo cual hace que σ > s.

 

Principio de Cauchy

Sea B , un medio continuo deformado, entonces en cada subdominio V subset B , existe un campo vectorial t ,, llamado campo de tensiones, tal que las fuerzas de volumen fin Bbb{R}^3 y el campo de tensiones tin Bbb{R}^3 satisfacen las siguientes ecuaciones de equilibrio:

 int_{V} f(mathbf{x}) dV + int_{partial V} t(mathbf{x},n) dA = 0  int_{V} mathbf{x} times f(mathbf{x}) dV + int_{partial V}  mathbf{x} times t(mathbf{x},n) dA = 0


Este principio fue enunciado por Augustin Louis Cauchy en su forma más general, aunque previamente Leonhard Euler había hecho una formulación menos general. De este principio puede demostrarse el teorema debido a Cauchy para el tensor tensión que postula que el principio de Cauchy equivale a la existencia de una aplicación lineal, llamada tensor tensión Tin C^1(B,Bbb{R}^3) con las siguientes propiedades:

  1.  t(mathbf{x},n) = [T(mathbf{x})](n),
  2.  operatorname{div}, T(mathbf{x}) + f(mathbf{x}) = 0,
  3.  T(mathbf{x}) = T^T(mathbf{x})

 

Con el principio, enunció también los dos postulados que definen la actuación de los vectores sobre una superficie

 

Tensión normal y tensión tangencial

Si consideramos un punto concreto de un sólido deformable sometido a tensión y se escoge un corte mediante un plano imaginario π que lo divida al sólido en dos, queda definido un vector tensión tπ que depende del estado tensional interno del cuerpo, de las coordenadas del punto escogido y del vector unitrio normal nπ al plano π definida mediante el tensor tensión:

 {mathbf{t}_pi} = {T(mathbf{n}_pi)} ,

Usualmente ese vector puede descomponerse en dos componentes que físicamente producen efectos diferentes según el material sea más dúctil o más frágil. Esas dos componentes se llaman componentes intrínsecas del vector tensión respecto al plano π y se llaman tensión normal o perpendicular al plano y tensión tangencial o rasante al plano, estas componentes vienen dadas por:

begin{cases} sigma_pi = mathbf{t}_pi cdot mathbf{n}_pi  tau_pi = ||mathbf{t}_pi times mathbf{n}_pi|| end{cases} Rightarrow qquad ||mathbf{t}_pi||^2 = sigma_pi^2 + tau_pi^2


Análogamente cuando existen dos sólidos en contacto y se examinan las tensiones entre dos puntos de los dos sólidos, se puede hacer la descomposición anterior de la tensión de contacto según el plano tangente a las superficies de ambos sólidos, en ese caso la tensión normal tiene que ver con la presión perpendicular a la superficie y la tensión tangencial tiene que ver con las fuerzas de fricción entre ambos

Fuerza elástica

En física, la ley de elasticidad de Hooke o ley de Hooke, originalmente formulada para casos de estiramiento longitudinal, establece que el alargamiento unitario ε de un material elástico es directamente proporcional a la fuerza aplicada F:

 epsilon = frac{delta}{L} = frac{F}{AE}

Donde δ: alargamiento longitudinal, L: Longitud original, E: módulo de Young o módulo de elasticidad, A: sección transversal de la pieza estirada. La ley se aplica a materiales elásticos hasta un límite denominado límite de elasticidad.

Esta ley recibe su nombre de Robert Hooke, físico británico contemporáneo de Isaac Newton. Ante el temor de que alguien se apoderara de su descubrimiento, Hooke lo publicó en forma de un famoso anagrama, ceiiinosssttuv, revelando su contenido un par de años más tarde. El anagrama significa Ut tensio sic vis ("como la extensión, así la fuerza").

 

Contenido

[ocultar]

Ley de Hooke para los resortes [editar]

La forma más común de representar matemáticamente la Ley de Hooke es mediante la ecuación del resorte, donde se relaciona la fuerza F ejercida por el resorte con la distancia adicional δ producida por alargamiento del siguiente modo:

F = -kdelta , , siendo  k = frac{AE}{L}

Donde k se llama constante del resorte (también constante de rigidez) y Δx es la separación de su extremo respecto a su longitud natural, A la sección del cilindro imaginario que envuelve al muelle y E el módulo de elasticidad del muelle (no confundir con el módulo de elasticidad del material). La energía de deformación o energía potencial elástica Uk asociada al estiramiento del resorte viene dada por la siguiente ecuación:

U_k=frac{1}{2} k{delta}^2

Es importante notar que la k antes definida depende de la longitud del muelle y de su constitución. Definiremos ahora una constante intrínseca del resorte independiente de la longitud de este y estableceremos así la ley diferencial constitutiva de un muelle. Multiplicando k por la longitud total, y llamando al producto ki o k intrínseca, se tiene:

k_i=AE,

donde k=frac{k_i}{L}

Llamaremos F(x) a la fuerza que soporta una sección del muelle a una distancia x del origen de coordenadas, kΔx a la constante de un pequeño trozo de muelle de longitud Δx a la misma distancia y δΔx al alargamiento de ese pequeño trozo en virtud de la aplicación de la fuerza F(x). Por la ley del muelle completo:

F(x)=-k_{Delta x}delta_{Delta x}=k_ifrac{delta_{Delta x}}{Delta x}

Tomando el límite:

F(x)=-k_ifrac{{delta}_{dx}}{dx}

que por el principio de superposición resulta:

Fleft(xright)=-k_ifrac{d{delta}}{dx}=-AEfrac{ddelta}{dx}

Que es la ecuación diferencial del muelle. Si se integra para todo x, de obtiene como resultado el valor del alargamiento unitario total. Normalmente puede considerarse F(x) constante e igual a la fuerza total aplicada. Cuando F(x) no es constante y se incluye en el razonamiento la inercia de éste, se llega a la ecuación de onda unidimensional que describe los fenómenos ondulatorios (Ver: Muelle elástico). La velocidad de propagación de las vibraciones en un resorte se calcula como:

c=sqrt{frac{E}{rho}}

Ley de Hooke en sólidos elásticos [editar]

En la mecánica de sólidos deformables elásticos la distribución de tensiones es mucho más complicada que en un resorte o una barra estirada sólo según su eje. La deformación en el caso más general necesita ser descrita mediante un tensor de deformaciones mientras que los esfuerzos internos en el material necesitan se representados por un tensor de tensiones. Estos dos tensores están relacionados por ecuaciones lineales conocidas por ecuaciones de Hooke generalizadas o ecuaciones de Lamé-Hooke, que son las ecuaciones constitutivas que caracterizan el comportamiento de un sólido elástico lineal. Estas ecuaciones tienen la forma general:

sigma_{ij} = sum_{k,l} C_{ijkl}varepsilon_{kl} ,

Caso unidimensional [editar]

En el caso de un problema unidimensional donde las deformaciones o tensiones en direcciones perpendiculares a una dirección dada son irrelevantes o se pueden ignorar σ = σ11, ε = ε11, C11 = E y la ecuación anterior se reduce a:

 sigma = Eepsilon ,

Donde E es el módulo de elasticidad longitudinal o módulo de Young.

Caso tridimensional isótropo [editar]

Para caracterizar el comportamiento de un sólido elástico lineal e isótropo se requieren además del módulo de Young otra constante elástica, llamada coeficiente de Poisson (ν). Por otro lado, las ecuaciones de Lamé-Hooke para un sólido elástico lineal e isótropo pueden ser deducidas del teorema de Rivlin-Ericksen, que pueden escribirse en la forma:

epsilon_{xx} = frac{1}{E}left( sigma_{xx} - nu(sigma_{yy}+sigma_{zz}) right) qquad epsilon_{xy} = frac{(1+nu)}{E}sigma_{xy} epsilon_{yy} = frac{1}{E}left( sigma_{yy} - nu(sigma_{xx}+sigma_{zz}) right) qquad epsilon_{yz} = frac{(1+nu)}{E}sigma_{yz} epsilon_{zz} = frac{1}{E}left( sigma_{zz} - nu(sigma_{xx}+sigma_{yy}) right) qquad epsilon_{xz} = frac{(1+nu)}{E}sigma_{xz}

En forma matricial, en términos del módulo de Young y el coeficiente de Poisson como:

 begin{pmatrix}  varepsilon_{xx}   varepsilon_{yy}     varepsilon_{zz}   varepsilon_{xy}   varepsilon_{xz}     varepsilon_{yz} end{pmatrix}  = begin{pmatrix}   frac{1}{E} & -frac{nu}{E} & -frac{nu}{E} & & &    -frac{nu}{E} & frac{1}{E} & -frac{nu}{E} & & &      -frac{nu}{E} & -frac{nu}{E} & frac{1}{E}    & & & frac{1+nu}{E} & 0 & 0    & & & 0 & frac{1+nu}{E} & 0    & & & 0 & 0 & frac{1+nu}{E}  end{pmatrix} begin{pmatrix}   sigma_{xx}   sigma_{yy}     sigma_{zz}   sigma_{xy}   sigma_{xz}     sigma_{yz} end{pmatrix}


Las relaciones inversas vienen dadas por:

 begin{pmatrix}   sigma_{xx}   sigma_{yy}     sigma_{zz}   sigma_{xy}   sigma_{xz}     sigma_{yz} end{pmatrix}  = frac{E}{1+nu} begin{pmatrix}   frac{1-nu}{1-2nu} & frac{nu}{1-2nu} & frac{nu}{1-2nu} & & &    frac{nu}{1-2nu} & frac{1-nu}{1-2nu} & frac{nu}{1-2nu} & & &    frac{nu}{1-2nu} & frac{nu}{1-2nu} & frac{1-nu}{1-2nu} & & &    & & & 1 & 0 & 0    & & & 0 & 1 & 0    & & & 0 & 0 & 1  end{pmatrix} begin{pmatrix}   varepsilon_{xx}   varepsilon_{yy}     varepsilon_{zz}   varepsilon_{xy}   varepsilon_{xz}     varepsilon_{yz} end{pmatrix}

Fuerza de rozamiento

El coeficiente de rozamiento o coeficiente de fricción expresa la oposición al movimiento que ofrecen las superficies de dos cuerpos en contacto. Es un coeficiente adimensional. Usualmente se representa con la letra griega μ (mi).

La mayoría de las superficies, aún las que se consideran pulidas son extremadamente rugosas a escala microscópica. Cuando dos superficies son puestas en contacto, el movimiento de una respecto a la otra genera fuerzas tangenciales llamadas fuerzas de fricción, las cuales tienen sentido contrario a la fuerza aplicada. La naturaleza de este tipo de fuerza esta ligada a las interacciones de las partículas microscópicas de las dos superficies implicadas.

El valor del coeficiente de rozamiento es característico de cada par de materiales en contacto; no es una propiedad intrínseca de un material. Depende además de muchos factores como la temperatura, el acabado de las superficies, la velocidad relativa entre las superficies, etc.

 

Cálculo de la fuerza de rozamiento [editar]

Conocido el valor del coeficiente de rozamiento aplicable, la fuerza de rozamiento máxima que puede ejercer una superficie sobre la otra se expresa como el producto del coeficiente de rozamiento por la fuerza normal (perpendicular) a ambas superficies.

 F_R = mu N

 

Ángulo de rozamiento [editar]

La arena adopta una forma de cono con la inclinación de su ángulo de rozamiento interno.

Al considerar el deslizamiento de un cuerpo sobre un plano inclinado, se observa que al variar la inclinación de dicho plano, el objeto inicia el movimiento al alcanzarse un ángulo de inclinación crítico. Esto es debido a que al aumentar la inclinación, se reduce paulatinamente la componente perpendicular del peso, la fuerza N, que es proporcional al coseno del ángulo de inclinación.

Esto es así independientemente del peso del cuerpo, ya que a mayor peso, aumentan tanto la fuerza que tira el objeto cuesta abajo, como la fuerza normal que genera rozamiento. De este modo, un coeficiente de rozamiento dado entre dos cuerpos equivale a un ángulo determinado, que se conoce como ángulo de rozamiento.

ejemplo : si tenemos un carro por una superficie muy inclinada , nos caemos y el carro resvala en el pavimento o asfalto , provocando la friccion o el coeficiente de friccion (nota: este es un ejemplo muy bueno para el colegio y las academias )

tan α = μe

Determinados materiales granulares, como la arena, la grava, los suelos y en general los graneles, tienen un determinado coeficiente de rozamiento entre los granos que los conforman. El ángulo asociado es precisamente el ángulo que formaría un montón estable de dicho material, por ello se conoce a esta propiedad como ángulo de rozamiento interno.

La Normal

Ejemplos de la fuerza Normal Cuando un cuerpo está apoyado sobre una superficie ejerce una fuerza sobre ella cuya dirección es perpendicular a la de la superficie. De acuerdo con la Tercera ley de Newton, la superficie debe ejercer sobre el cuerpo una fuerza de la misma magnitud y dirección, pero de sentido contrario. Esta fuerza es la que denominamos Normal y la representamos con N.

En la figura de la izquierda se muestra hacia donde está dirigida la fuerza normal en los dos ejemplos que aparecían en la figura anterior para el peso. Como ya hemos dicho, siempre es perpendicular a la superficie de contacto y está dirigida hacia arriba, es decir, hacia fuera de la superficie de contacto.

Peso

Saltar a navegación, búsqueda
Para la divisa así llamada, véase Peso (moneda).
Diagrama de fuerzas que actúan sobre un cuerpo situado en una superficie llana.
Patrón de un kilogramo masa.

El peso, en física, es la medida de la fuerza que ejerce la gravedad sobre la masa de un cuerpo. Normalmente, se considera respecto de la fuerza de gravedad terrestre.

El peso depende de la intensidad del campo gravitatorio, de la posición relativa de los cuerpos y de la masa de los mismos.

En las proximidades de la Tierra, todos los objetos son atraídos por el campo gravitatorio terrestre, siendo sometidos a una fuerza constante, que es el peso, imprimiéndoles un movimiento de aceleración, si no hay otras circunstancias que lo impidan.

Contenido

[ocultar]
  • 1 Peso y masa
  • 2 Unidades de peso
  • 3 Cálculo del peso
  • 4 Comparación del peso en el sistema solar
  • 5 Peso humano
  • 6 Véase también
  • 7 Referencias
  • 8 Enlaces externos

 

Peso y masa [editar]

La masa es una propiedad característica de los cuerpos: la cantidad de materia, y no depende de la intensidad del campo gravitatorio, ni de su posición en el espacio.

Por ejemplo, una persona de 60 kg de masa, pesa 60 kg-fuerza en la superficie de la Tierra; pero, la misma persona, en la superficie de la Luna pesaría sólo unos 10 kg-fuerza; sin embargo, su masa seguirá siendo de 60 kg.

Las unidades de peso y masa tienen una larga historia compartida, en parte porque su diferencia no fue bien entendida cuando dichas unidades comenzaron a utilizarse. Cotidianamente, el término "peso" se utiliza a menudo erróneamente como sinónimo de masa. La unidad de masa del SI es el kilogramo.

El dinamómetro sirve para medir el peso de los objetos.

 

Unidades de peso [editar]

Las magnitudes físicas se expresan en unidades del sistema internacional de unidades (SI), en la mayoría de los trabajos científicos modernos. El peso se mide con la unidad de fuerza del SI, que es el newton (N). También se suele indicar el peso en unidades de fuerza de otros sistemas, como: kg-fuerza, dinas, libras-fuerza, onzas-fuerza, etcétera.

El kilogramo fuerza o kilopondio, no es una unidad del SI; es definido como la fuerza ejercida a un kilogramo de masa con una intensidad de gravedad estándar. La dina es la unidad CGS de fuerza y tampoco es parte del SI. Algunas unidades inglesas, como la libra, pueden ser de fuerza o de masa. Las unidades relacionadas, como el slug, forman parte de sub-sistemas de unidades.

 

Cálculo del peso [editar]

Anomalías del campo gravitacional terrestre (expresado en miligal [1] ) respecto del valor estimado, considerando la variación del radio terrestre.
Contribución de la fuerza centrífuga y la aceleración gravitatoria en el peso.

El cálculo aproximado del peso, considerado como una fuerza, se puede expresar mediante la segunda ley de la dinámica:

vec F = m cdot vec g

donde g es la aceleración gravitatoria que, en primera aproximación, se puede expresar con la siguiente fórmula:

g = frac{F}{m} = frac {G M_T}{{R_T}^2}

Para la Tierra, el valor de la aceleración de la gravedad se fijó convencionalmente en 9,80665 m/s2 en la tercera Conferencia General de Pesos y Medidas convocada en 1901 por la Oficina Internacional de Pesos y Medidas Bureau International des Poids et Mesures.[2]

 

Comparación del peso en el sistema solar [editar]

La siguiente lista describe el peso de una «masa unidad» en la superficie de algunos cuerpos del sistema solar, comparándolo con su peso en la Tierra:

Cuerpo celestePeso relativom/s2
Sol27,90274,1
Mercurio0,3773,703
Venus0,9078,872
Tierra19,8226 [3]
Luna0,1651,625
Marte0,3773,728
Júpiter2,36425,93
Saturno0,9219,05
Urano0,8899,01
Neptuno1,12511,28

 

Peso humano [editar]

correlación peso y talla

Cuando se habla del peso de un ser humano, se está haciendo referencia a su masa. Por término medio, un recién nacido pesa de 3 a 4 kilogramos y a los doce meses pesa de 9 a 12 kilogramos. El índice de masa corporal establece la relación entre el peso y la talla de las personas.

  • IMC de 18,5-24,9 es peso normal.
  • IMC de 25,0-29,9 es sobrepeso.
  • IMC de 30,0-39,9 es obesidad.
  • IMC de 40,0 o mayor y es obesidad severa (o mórbida).

Ley de gravitación universal

De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

La ley de gravitación universal, presentada por Isaac Newton en su libro publicado en 1687, "Philosophiae Naturalis Principia Mathematica" establece, la forma y explica el fenómeno natural de la atracción que tiene lugar entre dos objetos con masa.

Todo objeto en el universo que posea masa ejerce una atracción gravitatoria sobre cualquier otro objeto con masa, independientemente de la distancia que los separe. Según explica esta ley, mientras más masa posean los objetos mayor será la fuerza de atracción, y paralelamente, mientras más cerca se encuentren entre sí, también será mayor esa fuerza.

Expresando lo anterior en términos formales, esta ley establece que la fuerza que ejerce un objeto dado con masa m1 sobre otro con masa m2 es directamente proporcional al producto de las masas, e inversamente proporcional al cuadrado de la distancia que los separa:

Poniendo lo anterior en una fórmula, tenemos:

Fuerza = G frac {m_{1}m_{2}} {d^2}

Donde m1 y m2 son las masas de los dos objetos, d es la distancia que separa sus centros de gravedad y G es constante de gravitación universal.

Si trabajamos con vectores, tenemos la siguiente fórmula:

vec{F_{12}} = -G frac {m_{1}m_{2}} {|vec{r_1}-vec{r_2}|^2}hat{u_{12}}

donde hat{u_{12}} es el vector unitario que va del centro de gravedad del objeto 1 al del objeto 2.

Interpretando lo anterior, y guiándonos en la fórmula, esta ley establece que mientras más grandes sean las masas de sus cuerpos, mayor será la fuerza con que se atraigan, y que a mayor distancia de separación menor será la fuerza de atracción.

Es importante aclarar que la distancia entre los dos objetos se refiere a la distancia existente entre los centros de gravedad de cada uno de ellos, que generalmente se encuentra al centro del objeto (excepto si éste tiene una forma irregular), por lo que esa distancia, en caso de que los objetos estén en contacto, será mayor a cero.

La fuerza de atracción entre dos cuerpos como el que ejerce la Tierra sobre los cuerpos que están dentro de su rango de acción, es la causa de que los cuerpos que se sueltan a cualquier altura caigan al suelo. En este caso, la distancia que los separa sería la distancia del objeto hasta el centro de la tierra.

En la formula se puede notar la inclusión de G, la constante de gravitación universal. Newton no sabía el valor de esta constante, sólo explicó que se trata de una constante universal, indicó que se trata de un número bastante pequeño, e indicó la unidad de medida que incluye.

Sólo mucho tiempo después hubo las posibilidades técnicas necesarias para calcular su valor, y ni aún en la actualidad se pudo precisar su valor con mucha exactitud. En 1798 se hizo el primer intento de medición (véase experimento de la balanza de torsión) y en la actualidad, con técnicas de la mayor precisión posible se llegó a estos resultados:

begin{matrix} G  &  =left(6.67428 plusmn 0.00067 right) times 10^{-11}  mbox{m}^3  mbox{kg}^{-1}  mbox{s}^{-2}  & = left(6.67428 plusmn 0.00067 right) times 10^{-11}  mbox{N}  mbox{m}^2  mbox{kg}^{-2} end{matrix}

Leyes de Newton

Saltar a navegación, búsqueda
La primera y segunda ley de Newton, en latín, en la edición original de su obra Principia Mathematica.

Las Leyes de Newton son tres principios a partir de los cuales se explican la mayor parte de los problemas planteados por la dinámica, en particular aquellos relativos al movimiento de los cuerpos.

En concreto, la relevancia de estas leyes radica en dos aspectos:

  • por un lado, constituyen, junto con la transformación de Galileo, la base de la mecánica clásica;
  • por otro, al combinar estas leyes con la Ley de la gravitación universal, se pueden deducir y explicar las Leyes de Kepler sobre el movimiento planetario.

Así, las Leyes de Newton permiten explicar tanto el movimiento de los astros, como los movimientos de los proyectiles artificiales creados por el ser humano, así como toda la mecánica de funcionamiento de las máquinas.

Su formulación matemática fue publicada por Isaac Newton en 1687 en su obra Philosophiae Naturalis Principia Mathematica.[1]

No obstante, la dinámica de Newton, también llamada dinámica clásica, sólo se cumple en los sistemas de referencia inerciales; es decir, sólo es aplicable a cuerpos cuya velocidad dista considerablemente de la velocidad de la luz (que no sobrepasen los 300,000 km/s); la razón estriba en que cuanto más cerca esté un cuerpo de alcanzar esa velocidad (lo que ocurriría en los sistemas de referencia no-inerciales), más posibilidades hay de que incidan sobre el mismo una serie de fenómenos denominados efectos relativistas o fuerzas ficticias, que añaden términos suplementarios capaces de explicar el movimiento de un sistema cerrado de partículas clásicas que interactúan entre sí. El estudio de estos efectos (aumento de la masa y contracción de la longitud, fundamentalmente) corresponde a la teoría de la relatividad especial, enunciada por Albert Einstein en 1905.

Contenido

[ocultar]
  • 1 Fundamentos teóricos de las leyes
  • 2 Las leyes
    • 2.1 Primera Ley de Newton o principio de inercia
    • 2.2 Segunda Ley de Newton o Ley de Fuerza
    • 2.3 Tercera Ley de Newton o Ley de acción y reacción
  • 3 Generalizaciones
    • 3.1 Generalizaciones relativistas
    • 3.2 Ley de acción y reacción débil
  • 4 Referencias
  • 5 Fuentes
  • 6 Bibliografía
  • 7 Véase también

 

Fundamentos teóricos de las leyes [editar]

La base teórica que permitió a Newton establecer sus leyes está también precisada en sus Philosophiae naturalis principia mathematica.

El primer concepto que maneja es el de masa, que identifica con "cantidad de materia"; la importancia de esta precisión está en que le permite prescindir de toda cualidad que no sea física-matemática a la hora de tratar la dinámica de los cuerpos. Con todo, utiliza la idea de éter para poder mecanizar todo aquello no reducible a su concepto de masa.

Newton asume a continuación que la cantidad de movimiento es el resultado del producto de la masa por la velocidad, y define dos tipos de fuerzas: la vis insita, que es proporcional a la masa y que refleja la inercia de la materia, y la vis impressa (momento de fuerza), que es la acción que cambia el estado de un cuerpo, sea cual sea ese estado; la vis impressa, además de producirse por choque o presión, puede deberse a la vis centripeta (fuerza centrípeta), una fuerza que lleva al cuerpo hacia algún punto determinado. A diferencia de las otras causas, que son acciones de contacto, la vis centripeta es una acción a distancia. En esta distingue Newton tres tipos de cantidades de fuerza: una absoluta, otra aceleradora y, finalmente, la motora, que es la que interviene en la ley fundamental del movimiento.

En tercer lugar, precisa la importancia de distinguir entre lo absoluto y relativo siempre que se hable de tiempo, espacio, lugar o movimiento.

En este sentido, Newton, que entiende el movimiento como una traslación de un cuerpo de un lugar a otro, para llegar al movimiento absoluto y verdadero de un cuerpo

compone el movimiento (relativo) de ese cuerpo en el lugar (relativo) en que se lo considera, con el movimiento (relativo) del lugar mismo en otro lugar en el que esté situado, y así sucesivamente, paso a paso, hasta llegar a un lugar inmóvil, es decir, al sistema de referencias de los movimientos absolutos.[2]

De acuerdo con esto, Newton establece que los movimientos aparentes son las diferencias de los movimientos verdaderos y que las fuerzas son causas y efectos de estos. Consecuentemente, la fuerza en Newton tiene un carácter absoluto, no relativo.

 

Las leyes [editar]

Primera Ley de Newton o principio de inercia [editar]

Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no ser en tanto que sea obligado por fuerzas impresas a cambiar su estado.[3]

La primera ley especifica que todo cuerpo continúa en su estado de reposo o de movimiento rectilíneo uniforme, a menos que actúe sobre él una fuerza que le obligue a cambiar dicho estado.

Este principio establece que la materia es inerte, en tanto que por sí misma no puede modificar su estado de reposo o movimiento. Así, pues, constituye una definición de la fuerza como causa de las variaciones de velocidad de los cuerpos e introduce en física el concepto de sistema de referencia inercial.

Por lo demás, aunque la experiencia diaria parece contradecir la segunda parte del enunciado, que un cuerpo en movimiento se mantendrá así de forma indefinida a no ser que actúe sobre él alguna fuerza, la realidad es que los cuerpos están sometidos a la acción de fuerzas de fricción o rozamiento, que los van frenando progresivamente.

 

Segunda Ley de Newton o Ley de Fuerza [editar]

El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime.[4]

La segunda ley explica qué ocurre si sobre un cuerpo en movimiento actúa una fuerza. En ese caso, la fuerza modificará el movimiento, cambiando la velocidad en módulo o dirección. En concreto, los cambios experimentados en la cantidad de movimiento de un cuerpo son proporcionales a la fuerza motriz y se desarrollan en la dirección de esta; esto es, las fuerzas son causas que producen aceleraciones en los cuerpos.

Consecuentemente, hay relación entre la causa y el efecto, esto es, la fuerza y la aceleración están relacionadas.

En términos matemáticos esta ley se expresa mediante dos relaciones:

vec{F}_{text{net}} = {mathrm{d}(m cdot vec{v}) over mathrm{d}t}

y

vec{F} = m cdot vec{a}

que es la ecuación fundamental de la dinámica, donde la constante de proporcionalidad distinta para cada cuerpo es su masa de inercia, pues las fuerzas ejercidas sobre un cuerpo sirven para vencer su inercia, con lo que masa e inercia se identifican. Es por esta razón por la que la masa se define como una medida de la inercia del cuerpo.

Por tanto, si la fuerza resultante que actúa sobre una partícula no es cero, esta partícula tendrá una aceleración proporcional a la magnitud de la resultante y en dirección de ésta. La expresión anterior así establecida es válida tanto para la mecánica clásica como para la mecánica relativista, a pesar de que la definición de momento lineal es diferente en las dos teorías: mientras que la dinámica clásica afirma que la masa de un cuerpo es siempre la misma, con independencia de la velocidad con la que se mueve, la mecánica relativista establece que la masa de un cuerpo aumenta al crecer la velocidad con la que se mueve dicho cuerpo.

De la ecuación fundamental se deriva también la definición de la unidad de fuerza o newton (N). Si la masa y la aceleración valen 1, la fuerza también valdrá 1; así, pues, el newton es la fuerza que aplicada a una masa de un kilogramo le produce una aceleración de 1 m/s². Se entiende que la aceleración y la fuerza han de tener la misma dirección y sentido.

La importancia de esa ecuación estriba sobre todo en que resuelve el problema de la dinámica de determinar la clase de fuerza que se necesita para producir los diferentes tipos de movimiento: rectilíneo uniforme (m.r.u), circular uniforme (m.c.u) y uniformemente acelerado (m.r.u.a).

 

Tercera Ley de Newton o Ley de acción y reacción [editar]

Con toda acción ocurre siempre una reacción igual y contraria: o sea, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en direcciones opuestas.[5]

La tercera ley expone que por cada fuerza que actúa sobre un cuerpo, éste realiza una fuerza de igual intensidad y dirección pero de sentido contrario sobre el cuerpo que la produjo. Dicho de otra forma, las fuerzas siempre se presentan en pares de igual magnitud, sentido opuesto y están situadas sobre la misma recta. Este principio presupone que la interacción entre dos partículas se propaga instantáneamente en el espacio (con velocidad finita), y en su formulación original no es válido para fuerzas electromagnéticas.

Es importante observar que este principio de acción y reacción relaciona dos fuerzas que no están aplicadas al mismo cuerpo, produciendo en ellos aceleraciones diferentes, según sean sus masa. Por lo demás, cada una de esas fuerzas obedecen por separado a la segunda ley.

Junto con las anteriores, permite enunciar los principios de conservación del momento lineal y del momento angular.

 

 

Generalizaciones [editar]

Después de que Newton formulara las famosas tres leyes, numerosos físicos y matemáticos hicieron contribuciones para darles una forma más general o de más fácil aplicación a sistemas no inerciales o a sistemas con ligaduras. Una de estas primeras generalizaciones fue el principio de d'Alembert de 1743 que era una forma válida para cuando existieran ligaduras que permitía resolver las ecuaciones sin necesidad de calcular explícitamente el valor de las reacciones asociadas a dichas ligaduras.

Por la misma época, Lagrange encontró una forma de las ecuaciones de movimiento válida para cualquier sistema de referencia inercial o no-inercial sin necesidad de introducir fuerzas ficticias. Ya que es un hecho conocido que las Leyes de Newton, tal como fueron escritas, sólo son válidas a los sistemas de referencia inerciales, o más precisamente, para aplicarlas a sistemas no-inerciales, requieren la introducción de las llamadas fuerzas ficticias, que se comportan como fuerzas pero no están provocadas directamente por ninguna partícula material o agente concreto, sino que son un efecto aparente del sistema de referencia no inercial.

Más tarde la introducción de la teoría de la relatividad obligó a modificar la forma de la segunda ley de Newton (ver (2c)), y la mecánica cuántica dejó claro que las leyes de Newton o la relatividad general sólo son aproximaciones al comportamiento dinámico en escalas macroscópicas. También se han conjeturado algunas modificaciones macroscópicas y no-relativistas, basadas en otros supuestos como la dinámica MOND.

 

 

Generalizaciones relativistas [editar]

Las leyes de Newton constituyen tres principios aproximadamente válidos para velocidades pequeñas. La forma en que Newton las formuló no era la más general posible. De hecho la segunda y tercera leyes en su forma original no son válidas en mecánica relativista sin embargo formulados de forma ligeramente diferente la segunda ley es válida, y la tercera ley admite una formulación menos restrictiva que es válida en mecánica relativista.

  • Primera ley, en ausencia de campos gravitatorios no requiere modificaciones. En un espacio-tiempo plano una línea recta cumple la condición de ser geodésica. En presencia de curvatura en el espacio-tiempo la primera ley de Newton sigue siendo correcta si substituimos la expresión línea recta por línea geodésica.
  • Segunda ley. Sigue siendo válida si se formula dice que la fuerza sobre una partícula coincide con la tasa de cambio de su cantidad de movimiento lineal. Sin embargo, ahora la definición de momento lineal en la teoría newtoniana y en la teoría relativista difieren. En la teoría newtoniana el momento lineal se define según (1a) mientras que en la teoría de la relatividad de Einstein se define mediante (1a):

begin{cases} vec{p}=mvec{v} & (mbox{1a})  vec{p}=cfrac{m vec{v}}{ sqrt{1-frac{v^2}{c^2}}} & (mbox{1b}) end{cases}

donde m es la masa invariante de la partícula y vec{v} la velocidad de ésta medida desde un cierto sistema inercial. Esta segunda formulación de hecho incluye implícitamente definición (1) según la cual el momento lineal es el producto de la masa por la velocidad. Como ese supuesto implícito no se cumple en el marco de la teoría de la relatividad de Einstein (donde la definición es (2)), la expresión de la fuerza en términos de la aceleración en la teoría de la relatividad toma una forma diferente. Por ejemplo, para el movimiento rectilíneo de una partícula en un sistema inercial se tiene que la expresión equivalente a (2a) es:

(2b) vec{F} = m vec{a} left( 1-frac{v^2}{c^2} right)^{-frac{3}{2}}

Si la velocidad y la fuerza no son paralelas, la expresión sería la siguiente:

(2c) vec{F} = frac{mvec{a}}{(1-frac{v^2}{c^2})^{frac{1}{2}}} + frac{m(vec{v}cdotvec{a})vec{v}}{c^2(1-frac{v^2}{c^2})^{frac{3}{2}}}

  • Tercera Ley de Newton. La formulación original de la tercera ley por parte de Newton implica que la acción y reacción, además de ser de la misma magnitud y opuestas, son colineales. En esta forma la tercera ley no siempre se cumple en presencia de campos magnéticos. En particular, la parte magnética de la fuerza de Lorentz que se ejercen dos partículas en movimiento no son iguales y de signo contrario. Esto puede verse por cómputo directo. Dadas dos partículas puntuales con cargas q1 y q2 y velocidades mathbf{v}_i, la fuerza de la partícula 1 sobre la partícula 2 es:

mathbf{F}_{12}= q_2 mathbf{v}_2times mathbf{B}_1 = frac{mu q_2q_1}{4pi} frac{mathbf{v}_2times (mathbf{v}_1timesmathbf{hat{u}}_{12})}{d^2}

donde d la distancia entre las dos partículas y mathbf{hat{u}}_{12} es el vector director unitario que va de la partícula 1 a la 2. Análogamente, la fuerza de la partícula 2 sobre la partícula 1 es:

mathbf{F}_{21}= q_1 mathbf{v}_1times mathbf{B}_2 = frac{mu q_2q_1}{4pi} frac{mathbf{v}_1times (mathbf{v}_2times(-mathbf{hat{u}}_{12}) )}{d^2}

Empleando la identidad vectorial mathbf{a}times(mathbf{b}timesmathbf{c}) = (mathbf{a}cdotmathbf{c})mathbf{b} - (mathbf{a}cdotmathbf{b})mathbf{c}, puede verse que la primera fuerza está en el plano formado por mathbf{hat{u}}_{12} y mathbf{v}_1 que la segunda fuerza está en el plano formado por mathbf{hat{u}}_{12} y mathbf{v}_2. Por tanto, estas fuerzas no siempre resultan estar sobre la misma línea, aunque son de igual magnitud.

 

Ley de acción y reacción débil [editar]

Como se explicó en la sección anterior ciertos sistemas magnéticos no cumplen el enunciado fuerte de esta ley (tampoco lo hacen las fuerzas eléctricas ejercidas entre una carga puntual y un dipolo). Sin embargo si se relajan algo las condiciones los anteriores sistemas sí cumplirían con otra formulación más débil o relajada de la ley de acción y reacción. En concreto los sistemas descritos que no cumplen la ley en su forma fuerte, si cumplen la ley de acción y reacción en su forma débil:

La acción y la reacción deben ser de la misma magnitud y sentido opuesto (aunque no necesariamente deben encontrarse sobre la misma línea)

Todas las fuerzas de la mecánica clásica y el electromagnetismo no relativista cumplen con la formulación débil, si además las fuerzas están sobre la misma línea entonces también cumplen con la formulación fuerte de la tercera ley de Newton.

 

Referencias [editar]

  1. ↑ Existe, además, una versión previa en un fragmento manuscrito de 1684 que lleva como título De motu corporum in mediis regulariter cedentibus. Por otro lado, en ese mismo texto queda claro que, originalmente, Newton había propuesto cinco leyes, de las cuales la cuarta era el principio de relatividad de Galileo.
  2. ↑ R. Dugas y P. Costabel, "La escuela inglesa desde Descartes hasta Newton", en Newton. Vida, pensamiento y obra, págs. 116-131 (119).
  3. ↑ Isaac Newton, extractos de Principios matemáticos de la filosofía natural, traducción de Eloy Rada García, en A hombros de gigantes. Las grandes obras de la física y la Astronomía, Crítica, Barcelona, 2003; apud. Newton. Vida, pensamiento y obra, pág. 199.
  4. ↑ Isaac Newton, extractos de Principios matemáticos de la filosofía natural, cit., pág. 199.
  5. ↑ Isaac Newton, extractos de Principios matemáticos de la filosofía natural, cit., pág. 199.

Resolución de triángulos

Las razones trigonométricas se utilizan frecuentemente para el cálculo de distancias y ángulos. Para ello, además de conocer trigonometrías debemos conocer sus inversas,  que son funciones que nos proporcionan el valor del seno, el coseno o la tangente.

Para calcularlas, utilizaremos la calculadora científica (véase recuadro del margen). Por ejemplo, si sabemos que el sen=0,5, calculando la invesa del seno de 0,5 (sen^-1= 0,5) con la calculadora obtenemos que a= 30º.

Razones trigonométricas

Trigonometría

La trigonometría es una rama de la matemática, cuyo significado etimológico es "la medición de los triángulos". Se deriva del vocablo griego τριγωνο <trigōno> "triángulo" + μετρον <metron> "medida".[1]

La trigonometría es la rama de las matemáticas que estudia las relaciones entre los ángulos y los lados de los triángulos. Para esto se vale de las razones trigonométricas, las cuales son utilizadas frecuentemente en cálculos técnicos.

En términos generales, la trigonometría es el estudio de las funciones seno, coseno; tangente, cotangente; secante y cosecante. Interviene directa o indirectamente en las demás ramas de la matemática y se aplica en todos aquellos ámbitos donde se requieren medidas de precisión. La trigonometría se aplica a otras ramas de la geometría, como es el caso del estudio de las esferas en la geometría del espacio.

Posee numerosas aplicaciones: las técnicas de triangulación, por ejemplo, son usadas en astronomía para medir distancias a estrellas próximas, en la medición de distancias entre puntos geográficos, y en sistemas de navegación por satélites.

El Canadarm 2, un brazo manipulador robótico gigantesco de la Estación Espacial Internacional. Este manipulador es operado controlando los ángulos de sus articulaciones. Calcular la posición final del astronauta en el extremo del brazo requiere un uso repetido de las funciones trigonómetricas de esos ángulos que se forman por los varios movimientos que se realizan.

Unidades angulares [editar]

En la medida de ángulos, y por tanto en trigonometría, se emplean tres unidades, si bien la más utilizada en la vida cotidiana es el Grado sexagesimal, en matemáticas es el Radián la más utilizada, y se define como la unidad natural para medir ángulos, el Grado centesimal se desarrolló como la unidad más próxima al sistema decimal, se usa en topografía, arquitectura o en construcción.

  • Radián: unidad angular natural en trigonometría, será la que aquí utilicemos. En una circunferencia completa hay 2π radianes.
  • Grado sexagesimal: unidad angular que divide una circunferencia en 360 grados.
  • Grado centesimal: unidad angular que divide la circunferencia en 400 grados centesimales.

 

Razones trigonométricas

El triángulo ABC es un triángulo rectángulo en C; lo usaremos para definir las razones seno, coseno y tangente, del ángulo  alpha , , correspondiente al vértice A, situado en el centro de la circunferencia.

  • El seno (abreviado como sen, o sin por llamarse "sinus" en latín) es la razón entre el cateto opuesto sobre la hipotenusa,

 sinalpha= frac{a}{c} = frac{overline{CB}}{overline{AB}}

  • El coseno (abreviado como cos) es la razón entre el cateto adyacente sobre la hipotenusa,

 cosalpha= frac{b}{c} = frac{overline{AC}}{overline{AB}}

  • La tangente (abreviado como tan o tg) es la razón entre el cateto opuesto sobre el cateto adyacente,

 tanalpha= frac{a}{b} = frac{overline{CB}}{overline{AC}}

 

Razones trigonométricas recíprocas

Se definen la cosecante, la secante y la cotangente, como las razones recíprocas al seno, coseno y tangente, del siguiente modo:

  • cosecante: (abreviado como csc o cosec) es la razón recíproca de seno, o también su inverso multiplicativo:

 csc alpha = frac{1}{sin alpha} = frac{c}{a}

  • secante: (abreviado como sec) es la razón recíproca de coseno, o también su inverso multiplicativo:

 sec alpha = frac{1}{cos alpha} = frac{c}{b}

  • cotangente: (abreviado como cot o cta) es la razón recíproca de la tangente, o también su inverso multiplicativo:

 cot alpha = frac{1}{tan alpha} = frac{b}{a}

Normalmente se emplean las relaciones trigonométricas seno, coseno y tangente, y salvo que haya un interés especifico en hablar de ellos o las expresiones matemáticas se simplifiquen mucho, los términos cosecante, secante y cotangente no suelen utilizarse.

 

Funciones trigonométricas inversas

En trigonometría, cuando el ángulo se expresa en radianes (dado que un radián es el arco de circunferencia de longitud igual al radio), suele denominarse arco a cualquier cantidad expresada en radianes; por eso las funciones inversas se denominan con el prefijo arco, así si:

 y= sin x ,

y es igual al seno de x, la función inversa:

 x = arcsin y ,

x es el arco cuyo seno vale y, o también x es el arcoseno de y.

si:

 y= cos x ,

y es igual al coseno de x, la función inversa:

 x = arccos y ,

x es el arco cuyo coseno vale y, que se dice: x es el arcocoseno de y.

si:

 y= tan x ,

y es igual al tangente de x, la función inversa:

 x = arctan y ,

x es el arco cuya tangente vale y, ó x es igual al arcotangente de y.

 

Valor de las funciones trigonométricas

A continuación algunos valores de las funciones que es conveniente recordar:

Circunferencia en radianes.Circunferencia en Grado sexagesimal.

 

RadianesGrados sexag.senocosenotangentecosecacntesecantecotangente
 0  ;  0^o ,frac{sqrt{0}}{2}=0frac{sqrt{4}}{2}=10 ,not{exists} (pm infty) ,!1 ,not{exists} (pm infty)  ,!
 frac{1}{6}pi 30^o ,frac{sqrt{1}}{2}=frac{1}{2}frac{sqrt{3}}{2}frac{sqrt{3}}{3}2 ,frac{2sqrt{3}}{3}sqrt{3}
 frac{1}{4}pi 45^o ,frac{sqrt{2}}{2}frac{sqrt{2}}{2}1 ,sqrt{2}sqrt{2}1 ,
 frac{1}{3} pi60^o ,frac{sqrt{3}}{2}frac{sqrt{1}}{2}=frac{1}{2}sqrt{3}frac{2sqrt{3}}{3}2 ,frac{sqrt{3}}{3}
 frac{1}{2} pi90^o ,frac{sqrt{4}}{2}=1frac{sqrt{0}}{2}=0not{exists} (pm infty) ,!1 ,not{exists} (pm infty) ,!0 ,

Para el calculo del valor de las funciones trigonométricas se confeccionaron tablas trigonométricas. La primera de estas tablas fue desarrollada por Johann Müller Regiomontano en 1467, que nos permiten, conocido un ángulo, calcular los valores de sus funciones trigonométricas. En la actualidad dado el desarrollo de la informática, en prácticamente todos los lenguajes de programación existen librerías de funciones que realizan estos cálculos, incorporadas incluso en calculadoras electrónicas de bolsillo, por lo que el empleo actual de las tablas resulta obsoleto.

 

Sentido de las funciones trigonométricas

Dados los ejes de coordenadas cartesianas xy, de centro O, y una circunferencia goniométrica (circunferencia de radio la unidad) con centro en O; el punto de corte de la circunferencia con el lado positivo de las x, lo señalamos como punto E.

Notese que el punto A es el vertice del triangulo, y O es el centro de coordenada del sistema de referencia:

 A equiv O

a todos los efectos.

La recta r, que pasa por O y forma un ángulo  alpha , sobre el eje de las x, corta a la circunferencia en el punto B, la vertical que pasa por B, corta al eje x en C, la vertical que pasa por E corta a la recta r en el punto D.

Por semejanza de triángulos:

 frac{; overline{CB} ;}{overline{OC}} = frac{; overline{ED} ;}{overline{OE}}

Los puntos E y B están en la circunferencia de centro O, por eso la distancia  overline{OE} y  overline{OB} son el radio de la circunferencia, en este caso al ser una circunferencia de radio = 1, y dadas las definiciones de las funciones trigonométricas:

 operatorname {sin} alpha = overline{CB} ,  cos alpha = overline{OC} ,  tan alpha = overline{ED} ,

tenemos:

 frac{sin alpha}{ cos alpha} = frac{tan alpha}{1}

La tangente es la relación del seno entre el coseno, según la definición ya expuesta.

 

Primer cuadrante

Partiendo de esta representación geométrica de las funciones trigonométricas, podemos ver las variaciones de las funciones a medida que aumenta el ángulo  alpha ,.

Para  alpha = 0 , , tenemos que A, C, y D coinciden en B, por tanto:

 sin 0 = 0 ,  cos 0 = 1 ,  tan 0 = 0 ,

Si aumentamos progresivamente el valor de  alpha , , las distancias  overline{CB} y  overline{ED} aumentaran progresivamente, mientras que  overline{OC} disminuirá.

Percatarse que  overline{OC} y  overline{CB} están limitados por la circunferencia y por tanto su máximo valor absoluto será 1, pero  overline{ED} no está limitado, dado que D es el punto de corte de la recta r que pasa por O, y la vertical que pasa por E, en el momento en el que el ángulo  alpha = 0,5 pi , rad, la recta r será la vertical que pasa por O. Dos rectas verticales no se cortan, o lo que es lo mismo la distancia  overline{ED} será infinita.

La tangente toma valor infinito cuando  alpha = 1/2 pi , rad, el seno vale 1 y el coseno 0.

 

 

Segundo cuadrante

Cuando el ángulo  alpha , supera el ángulo recto, el valor del seno empieza a disminuir según el segmento  overline{CB} , el coseno aumenta según el segmento  overline{OC} , pero en el sentido negativo de las x, el valor del coseno toma sentido negativo, si bien su valor absoluto aumenta cuando el ángulo sigue creciendo.

La tangente para un ángulo  alpha , inferior a  0,5pi , rad se hace infinita en el sentido positivo de las y, para el ángulo recto la recta vertical r que pasa por O y la vertical que pasa por E no se cortan, por lo tanto la tangente no toma ningún valor real, cuando el ángulo supera los  0,5pi , rad y pasa al segundo cuadrante la prolongación de r corta a la vertical que pasa por E en el punto D real, en el lado negativo de las y, la tangente  overline{ED} por tanto toma valor negativo en el sentido de las y, y su valor absoluto disminuye a medida que el ángulo  alpha , aumenta progresivamente hasta los  pi , rad.

Resumiendo: en el segundo cuadrante el seno de  alpha , ,  overline{CB} , disminuye progresivamente su valor desde 1, que toma para  alpha = 0,5 pi , rad, hasta que valga 0, para  alpha = pi , rad, el coseno, overline{OC} , toma valor negativo y su valor varia desde 0 para  alpha = 0,5 pi , rad, hasta –1, para  alpha = pi , rad.

La tangente conserva la relación:

 tan alpha = frac{sin alpha} {cos alpha}

incluyendo el signo de estos valores.

 

 

Tercer cuadrante

En el tercer cuadrante, comprendido entre los valores del ángulo  alpha = pi , rad a  alpha = 1,5  pi , rad, se produce un cambio de los valores del seno el coseno y la tangente, desde los que toman para  pi , rad:

 sin pi = 0 ,  cos pi = -1 ,  tan pi = 0 ,

Cuando el ángulo  alpha , aumenta progresivamente, el seno aumenta en valor absoluto en el sentido negativo de las y, el coseno disminuye en valor absoluto en el lado negativo de las x, y la tangente aumenta del mismo modo que lo hacia en el primer cuadrante.

A medida que el ángulo crece el punto C se acerca a O, y el segmento  overline{OC} , el coseno, se hace más pequeño en el lado negativo de las x.

El punto B, intersección de la circunferencia y la vertical que pasa por C, se aleja del eje de las x, en el sentido negativo de las y, el seno,  overline{CB} .

Y el punto D, intersección de la prolongación de la recta r y la vertical que pasa por E, se aleja del eje las x en el sentido positivo de las y, con lo que la tangente,  overline{ED} , aumenta igual que en el primer cuadrante

Cuando el ángulo  alpha , alcance  1,5 pi , rad, el punto C coincide con O y el coseno valdrá cero, el segmento  overline{CB} será igual al radio de la circunferencia, en el lado negativo de las y, y el seno valdrá –1, la recta r del ángulo y la vertical que pasa por E serán paralelas y la tangente tomara valor infinito por el lado positivo de las y.

El seno el coseno y la tangente siguen conservando la misma relación, tanto en valores como en signo, nótese que cuando el coseno vale cero, la tangente se hace infinito.

 

 

Cuarto cuadrante

En el cuarto cuadrante, que comprende los valores del ángulo  alpha , entre  1,5 pi , rad y  2 pi , rad, las variables trigonométricas varían desde los valores que toman para  1,5 pi , rad:

 sin(1,5 , pi ) = -1 ,  cos(1,5 , pi ) = 0 ,  tan(1,5 , pi ) = infty ,

hasta los que toman para  2 pi , rad pasando al primer cuadrante, completando una rotación:

 sin(2 , pi ) = operatorname {sin}0 = 0 ,  cos(2 , pi ) = cos 0 = 1 ,  tan(2 , pi ) = tan 0 = 0 ,

como puede verse a medida que el ángulo  alpha , aumenta, aumenta el coseno  overline{OC} en el lado positivo de las x, el seno  overline{CB} disminuye en el lado negativo de las y, y la tangente  overline{ED} también disminuye en el lado negativo de las y.

Cuando  alpha , , vale  2 pi , ó  0 pi , al completar una rotación completa los puntos B, C y D, coinciden en E, haciendo que el seno y la tangente valga cero, y el coseno uno, del mismo modo que al comenzarse el primer cuadrante.

 

 

Representación gráfica

Representación de las funciones trigonométricas en el plano xy, los valores en el eje x multiplicados por π radianes.

 

Identidades trigonométricas

Una identidad es una igualdad en que se cumple para todos los valores permisibles de la variable. En trigonometría existen seis identidades fundamentales:

 

Recíprocas

 operatorname {sen} (alpha) cdot csc (alpha) = 1  operatorname {cos} (alpha) cdot sec (alpha) = 1  operatorname {tan} (alpha) cdot cot (alpha) = 1

 

De división

 tan (alpha) = frac {operatorname {sin} (alpha)}{ cos (alpha)}

 

Por el teorema de Pitágoras

Como en el triángulo rectángulo cumple la funcion que:

a^2 + b^2 = c^2 ,

de la figura anterior se tiene que:

 operatorname {sin} (alpha ) =  frac {a}{c}  cos (alpha ) =  frac {b}{c}  c = 1 ,

entonces para todo ángulo α, se cumple la identidad Pitagórica :

operatorname {sin}^2 alpha + cos^2 alpha = 1 ,

que también puede expresarse:

tan^2 alpha + 1 = sec^2 alpha , 1+cot^2 alpha = csc^2 alpha ,

 

Suma y diferencia de dos ángulos

operatorname {sin}(alpha + beta) = operatorname {sin} alpha cos beta + cos alpha operatorname {sin} beta ,

 

sin (alpha - beta) = operatorname {sin} alpha cos beta - cos alpha operatorname {sin} beta ,

 

cos(alpha + beta) = cos alpha cos beta - operatorname {sin} alpha operatorname {sin} beta ,

 

cos(alpha - beta) = cos alpha cos beta + operatorname {sin} alpha operatorname {sin} beta ,

 

tan(alpha + beta) = frac{tan alpha + tan beta}{1 - tan alpha tan beta}

 

tan(alpha - beta) = frac{tan alpha - tan beta}{1 + tan alpha tan beta}

 

Suma y diferencia del seno y coseno de dos ángulos

operatorname {sin} alpha + operatorname {sin} beta = 2operatorname {sin} left( frac{alpha + beta}{2}right)cos left(frac{alpha - beta}{2} right)

 

operatorname {sin} alpha - operatorname {sin} beta = 2operatorname {sin} left( frac{alpha - beta}{2}right)cos left(frac{alpha + beta}{2} right)

 

cos alpha + cos beta = 2cos left(frac{alpha + beta}{2} right)cos  left(frac{alpha - beta}{2}right)

 

cos alpha - cos beta = -2operatorname {sin} left(frac{alpha + beta}{2} right) operatorname {sin} left(frac{alpha - beta}{2}right)

 

Producto del seno y coseno de dos ángulos

cos(alpha) cos(beta) = frac{cos(alpha + beta) + cos(alpha - beta) }{ 2} sin(alpha) sin(beta) = frac{cos(alpha - beta) - cos(alpha + beta) }{ 2} sin(alpha) cos(beta) = frac{sin(alpha + beta) + sin(alpha - beta) }{ 2} cos(alpha) sin(beta) = frac{sin(alpha + beta) - sin(alpha - beta) }{ 2}

 

Ángulo doble

operatorname {sin} 2alpha = 2 operatorname {sin}alpha cdot cos alpha ,!

 

cos 2alpha = cos^2  alpha - operatorname {sin}^2 alpha ,!

 

cos 2alpha = 1 - 2 operatorname {sin}^2 alpha ,!

 

cos 2alpha = -1 + 2 cos^2 alpha ,!

 

tan 2alpha = frac{2tan alpha}{1 - tan^2 alpha}

 

Ángulo mitad

operatorname {sin}left(frac{alpha}{2} right) = sqrt{frac{1-cosalpha}{2}} ,!

 

cos left(frac{alpha}{2} right) = sqrt{frac{1+cosalpha}{2}} ,!

 

tan left(frac{alpha}{2} right) = sqrt{frac{1-cosalpha}{1+cosalpha}}

 

Otras identidades trigonométricas

operatorname {sin} left ( frac{pi}{2} - alpha right ) = cos alpha ,! cos left ( frac{pi}{2} - alpha right ) = operatorname {sin}alpha ,! operatorname {sin} (pi - alpha) = operatorname {sin}alpha ,! cos (pi - alpha) = - cos alpha ,! operatorname {sin}alpha cdot cos alpha + operatorname {sin}beta cdot cos beta = operatorname {sin}(alpha + beta) cdot cos(alpha - beta)

 

Véase también: Sinusoide

 

Función tangente

En un triángulo rectángulo, la tangente (abreviada como tan o tg) es la razón entre el cateto opuesto y el cateto adyacente.

tan a = frac{BC}{AC} = frac{operatorname {sin} a}{cos a} = frac{a}{b}

El valor de la tangente para algunos ángulos importantes es:

tan = AC / OA = BD / OB = sen / cos tan (π/2) = tan (90°) = +∞ tan (-π/2) = tan (-90°) = -∞ tan (0) = 0 tan (π/4) = tan (45°) = 1 tan (π/3) = tan 60°= sqrt 3 tan (π/6) = tan 30° = frac{sqrt{3}}{3}

Una identidad de importancia con la tangente es:

tan(alpha + beta) = frac {tan alpha + tan beta} {1 - tan alpha tan beta}

 

Seno y coseno, funciones complejas

El seno y coseno se definen en matemática compleja, gracias a la fórmula de Euler como:

operatorname {sin} alpha= frac {e^{ialpha}-e^{-ialpha}}{2i} cos alpha= frac {e^{ialpha}+e^{-ialpha}}{2}

Por lo tanto, la tangente quedará definida como:

tan alpha = frac {e^{ialpha}-e^{-ialpha}}{ie^{ialpha}+ie^{-ialpha}}

Siendo i=sqrt{-1} (también puede representarse como j).

Triángulos semejantes

Dos triángulos son semejantes si existe una relación de semejanza o similitud entre ambos.

Una semejanza es la composición de una isometría (o sea, una rotación y una posible reflexión o simetría axial) con una homotecia.En la rotacion se puede cambiar el tamaño y la orientación de una figura pero no se altera su forma.

Por lo tanto, dos triángulos son semejantes si tienen similar forma.

En el caso del triángulo, la forma sólo depende de sus ángulos (no así en el caso de un rectángulo, por ejemplo, donde todos sus ángulos son rectos pero cuya forma puede ser más o menos alargada, es decir que depende del cociente base / altura).

Se puede simplificar así la definición: dos triángulos son semejantes si sus ángulos son iguales dos a dos.

En la figura, los ángulos correspondientes son A = A', B = B' y C = C'. Para denotar que dos triángulos ABC y DEF son semejantes se escribe ABC ~ DEF, donde el orden indica la correspondencia entre los ángulos: A, B y C se corresponden con D, E y F, respectivamente.

Una similitud tiene la propiedad (que la caracteriza) de multiplicar todas la longitudes por un mismo factor. Por lo tanto las razones longitud imagen / longitud origen son todas iguales, lo que da una segunda caracterización de los triángulos semejantes:

Dos triángulos son semejantes si las razones de los lados correspondientes son congruentes.

 

Ecuación

Se reúnen estas dos propiedades equivalentes en la siguiente ecuación:

(ABC sim A'B'C') Longleftrightarrow begin{Bmatrix} widehat{A}=widehat{A}'  widehat{B}=widehat{B}'  widehat{C}=widehat{C}' end{Bmatrix} Longleftrightarrow left ( frac {overline{A'B'}} {overline{AB}} = frac {overline{A'C'}} {overline{AC}} = frac {overline{B'C'}} {overline{BC}} right )

 

Corolarios

  • Todos los triángulos equiláteros son semejantes.
  • Si dos triángulos tienen dos ángulos iguales, los terceros también son iguales.

 

Propiedades de la semejanza

Propiedad reflexiva, refleja o idéntica Todo triángulo es semejante a sí mismo. Propiedad idéntica o simétrica Si un triángulo es semejante a otro, aquel es semejante al primero. Propiedad transitiva Si un triángulo es semejante a otro, y éste a su vez es semejante a un tercero, el primero es semejante al tercero.

Estas tres propiedades implican que la relación de semejanza entre dos triángulos es una relación de equivalencia.

 

Teorema de Thales

Un caso particular es el que se da en el teorema de Thales, donde los triángulos tienen dos lados (vistos como rectas) comunes: (CA) = (CA') y (CB) = (CB'), y los lados restantes son dos catetos paralelos: (AB) // (A'B').

Archivo:Triángulos semejantes Thales.svg
Triángulos semejantes según el teorema de Thales

Los lados son así paralelos dos a dos y, por lo tanto, definen ángulos iguales (del mismo color en la figura). Por ello, los triángulos CAB y CA'B' son semejantes (de hecho son homotéticos), lo que implica la igualdad de los cocientes:

 (frac {overline{CA'}} {overline{CA}}) = (frac {overline{CB'}} {overline{CB}}) = (frac {overline{A'B'}} {overline{AB}})

Otro teorema famoso de la geometría, el teorema de Pitágoras, es también una consecuencia inmediata de la doble caracterización de los triángulos semejantes.

 

Teorema fundamental de la semejanza de triángulos

Toda paralela a un lado de un triángulo que no pase por el vértice opuesto, determina con las rectas a las que pertenecen los otros dos lados, un triángulo semejante al dado.

H)

ABC; r || AC r corta AB en L r corta BC en M

T) (BLM sim BAC)

D)

Archivo:Triangulos_semejantes_2.png

Podrán presentarse 3 casos:

I - r corta a los lados AB y BC por puntos interiores a ellos.

Haremos una primera consideración, referida a los ángulos, y la llamaremos (1):

 wedge B = wedge B por carácter reflejo  wedge BLM = wedge A por ser correspondientes entre r || BC, secante AB wedge BML = wedge C por ser correspondientes entre r || BC, secante AC

Por otra parte, en virtud del corolario del Teorema de Tales se tiene:

frac{BL}{BA}=frac{BM}{BC}qquad bigotimes

Si por M se traza una paralela al lado AB, esta interseca al lado AC en un punto N, y nuevamente por el corolario del Teorema de Tales tenemos:

frac{BM}{BC}=frac{AN}{AC}qquad bigoplus

Pero dado que AN = LM, por ser lados opuestos del paralelogramo ALMN, reemplazando en bigoplus se obtiene:

frac{BM}{BC}=frac{LM}{AC}qquad bigodot De bigotimes y bigodot se obtiene la consideración que llamaremos (2): frac{BL}{BA}=frac{BM}{BC}=frac{LM}{AC}

Luego de (1) y (2), resulta:

BLM sim BAC por definición de semejanza.

II - r corta a las rectas de los lados AB y BC por puntos exteriores a ellos, sobre las semirrectas de origen B que los contienen.

Consideramos BLM como si fuera el triángulo dado, y BAC el triángulo nuevo, y por el caso I de la demostración, es:

(BAC sim BLM) Rightarrow (BLM sim BAC) por carácter simétrico.

III - r corta a las rectas de los lados AB y BC en puntos que pertenecen a las semirrectas opuestas a las que sirven de sostén a dichos lados.

Sobre la semirrecta de origen B que contiene al punto A, se construye BN=BL y por el extremo N del segmento construido, una paralela a AC (s) que corta la recta de BC por O.

Quedan entonces BNO sim BAC por el caso I, semejanza que llamaremos otimes.

Teniendo en cuenta los triángulos BNO y BLM, se observa:

  • BN=BM por construcción
  • α=α' por ser opuestos por el vértice.
  • β=β' por ser alternos internos entre r || s, secante MN

Y siendo BNO=BLM es BNO ~ BLM oplus por el primer corolario de la definición.

De otimes y oplus, y por carácter transitivo:

BAC ~ BLM Rightarrow BLM ~ BAC

 

Geometrías no-euclídeas

La posibilidad de aumentar el tamaño de una figura sin modificar su forma es tan obvia y natural que durante milenios se pensó que era una consecuencia de los axiomas de la geometría, y se trató en vano de demostrarlo desde la Grecia antigua. Sin embargo, al estudiar otras geometrías, las no euclidianas, los matemáticos del siglo XIX, entre ellos Bernhard Riemann y Nikolái Lobachevski se dieron cuenta que esto sólo sucedía en los espacios euclídeos, es decir, sin curvatura.

Se puede definir una geometría sobre la esfera, por ejemplo: Los segmentos son los caminos más cortos que unen sus extremos y las rectas son las líneas geodésicas, a semejanza de los ecuadores de la esfera. El análogo de una homotecia se construye así: se escoge un punto O de la superficie como centro de la homotecia, y para definir la imagen de otro punto A se traza la geodésica que pasa por O y A (que es única si A no es el punto diametralmente opuesto a O), consideramos que O es el origen de esta línea y A el punto de abscisa 1. La imagen A' será el punto de abscisa k, donde k es la razón de la homotecia. En la figura se ha tomado k = 3 y se han construido las imágenes de B y C también.

Triángulos semejantes en la geometría de Riemann.

Se observa que la imagen del "triángulo" ABC es el "triángulo A'B'C', es decir que los catetos A'B', A'C' y B'C' son segmentos de líneas geodésicas, y que A'B'C' merece ser llamado triángulo semejante (por no decir homotético) al triángulo ABC.

Al aplicar la construcción precedente al pequeño triángulo ABC de la superfice de la esfera (pequeño en comparación con el diámetro), la suma de sus ángulos será ligéramente superior a π radianes (180º), pero el triángulo A'B'C' tendrá ángulos de mayor amplitud, siendo su suma mucho mayor que π radianes, como se ve en la figura. El aumento de tamaño implica aquí claramente un cambio de forma.

En conclusión, los triángulos semejantes permiten saber en que clase de espacio nos hallamos, uno euclidiano, o con curvatura positiva (como la esfera), o con curvatura negativa (espacio hiperbólico), y la doble caracterización de los triángulos similares (mismos ángulos y cocientes de los lados iguales) en la geometría usual no es ni anecdótico ni anodino.

IMPACTOS EN LA BIOSFERA

LA DESTRUCCIÓN DE LAS SELVAS TROPICALES, UNA DE LAS CAUSAS PRINCIPALES DEL CAMBIO CLIMÁTICO MUNDIAL

Escrito de Denuncia de Proyecto Gran Simio



Ante la celebración del día 21 de marzo, como día Forestal Mundial, el Proyecto Gran Simio denuncia ante la comunidad internacional, la pasividad y el olvido intencionado con que se está afrontando la destrucción de los bosques mundiales y en especial, de las selvas tropicales, por parte de los países industrializados y en detrimento de los países más pobres, donde se hallan ubicadas principalmente los bosques tropicales. El exterminio irreversible de esta masa forestal de gran importancia, hace que sea responsable en más de un 50%, del cambio climático mundial. No sólo es importante reducir o controlar el CO2 emitido a la atmósfera, sino también y en gran medida, evitar la deforestación de nuestros bosques.

El Proyecto Gran Simio considera que el Cambio Climático al que nos estamos enfrentando, es debido además de otros factores que también influyen, a la destrucción de las selvas tropicales, por varias causas de capital importancia. En primer lugar porque fijan el CO2 y su desaparición elimina la absorción de este gas. Por otro lado, al ser captadores y quemarse, lo liberan a la atmósfera, aumentando el problema. A más destrucción de bosques, menos fijación de CO2 y más CO2 liberado. Pero el problema no sólo radica en la liberación de este gas que tanto preocupa, sino que además, las selvas tropicales funcionan como un regulador de temperatura, como un micro clima que regula a su vez a otros. La diferencia de temperaturas entre las regiones ecuatoriales y polares, junto con el movimiento de rotación de la Tierra, configuran un esquema de vientos a escala planetaria, conocido como circulación general, al que se superponen las inevitables perturbaciones causadas por efectos locales. Al destruir las selvas, estamos originando un cambio en esos micro climas, en esos vientos ecuatoriales que como efecto mariposa, terminan afectando al clima mundial incrementándose la violencia de las tormentas y el efecto invernadero, elevando las temperaturas en las capas superiores de los océanos, sequías, inundaciones, mayor número y más fuertes huracanes, incrementando la frecuencia y en la fuerza de los terremotos, empujes de masas de aire polares frías hacía abajo sobre el hemisferio norte causando graves daños en la Agricultura y olas de frío dramáticas como las ocurridas a primeros de este año, etc.

“A pesar de estos graves problemas que están asociados a la destrucción de las selvas tropicales, no se están poniendo ninguna medida para evitar que continué esta devastación irreversible y las Comisiones del Seguimiento y trabajo del Cambio Climático, han dejado a un lado este principal problema de la deforestación y se han centrado principalmente en las emisiones de CO2. Esto es un grave error, ya que si queremos conseguir un efecto positivo contra el Cambio Climático, debemos atajar los problemas que lo originan en igual medida y con la misma contundencia. En relación a los bosques mundiales, siguen abandonados, siguen siendo quemados, talados, destruidos. Estamos contribuyendo en gran medida a hipotecar nuestro futuro, a que la lucha contra el cambio climático fracase. Deseamos que la celebración del día mundial forestal, sea para replantear estrategias positivas y que no quede como un día dedicado al arbolito y su plantación simbólica”.

El Proyecto Gran Simio advierte que se deben ayudar a los países pobres que no pueden luchar con sus propios medios contra la devastación de las selvas tropicales, incentivar el consumo de madera certificada con el sello FSC, reciclar la madera que se tira a la basura muchas veces de un solo uso como son los palees de madera, poner fuertes sanciones económicas a las empresas madereras que sin permisos y muchas veces contra las propias leyes de los países afectados, talan criminalmente las selvas destruyendo la vida . Para ello, se necesita a la mayor brevedad posible, un Convenio Internacional con herramientas eficaces de sanción, exclusivo para la protección de los bosques mundiales y en especial de las selvas tropicales, de obligado cumplimiento para los que lo firmen. No es ético, ni moral, ni científico, ni eficaz; una lucha contra el cambio climático, dejando a un lado la deforestación y la destrucción irreversible de los bosques primarios. Comunidades étnicas, los grandes simios, la biodiversidad del planeta y una infinidad de elementos ecológicos y biológicos están en juego, si no se toman medidas drásticas y urgentes para paralizar este arboricidio mundial.

Destrucción de la reserva de Monogaga en Costa de Marfil

“Pedimos a la Comunidad Científica, a las ONGs conservacionistas, a las Naciones Unidas y a todos los países en general; convoquen una Cumbre para Salvar los Bosques Mundiales y que camine eficazmente de forma rápida (sin necesidad de tener que esperar una década para su puesta en funcionamiento) paralela a la Cumbre de Kyoto, con el objetivo de tomar medidas urgentes para la conservación inmediata de los verdaderos guardianes del planeta: los árboles, los bosques, las selvas..”.



El día forestal mundial nos debe hacer reflexionar sobre éstas y muchas otras causas que desencadenan la destrucción de nuestras selvas, verdaderos seguros de vida, y actuar de forma rápida e inmediata para la conservación de los bosques mundiales.

IMPACTOS EN EL SUELO

Un suelo se puede degradar al acumularse en él sustancias a unos niveles tales que repercuten negativamente en el comportamiento de los suelos. Las sustancias, a esos niveles de concentración, se vuelven tóxicas para los organismos del suelo.Se trata pues de una degradación química que provoca la pérdida parcial o total de la productividad del suelo.

Hemos de distinguir entre contaminación natural, frecuentemente endógena, y contaminación antrópica, siempre exógena.

Un ejemplo de contaminación natural es el proceso de concentración y toxicidad que muestran determinados elementos metálicos, presentes en los minerales originales de algunas rocas a medida que el suelo evoluciona. Un caso significativo se produce sobre rocas serpentinizadas con altos contenidos de elementos como Cr, Ni, Cu, Mn..., cuya edafogénesis en suelos con fuertes lavados origina la pérdida de los elementos más móviles, prácticamente todo el Mg, Ca, ...y, en ocasiones hasta gran parte del Si, con lo que los suelos residuales fuertemente evolucionados presentan elevadísimas concentraciones de aquellos elementos metálicos, que hacen a estos suelos susceptibles de ser utilizados como menas metálicas. Obviamente a medida que avanza el proceso de concentración residual de los metales pesados se produce el paso de estos elementos desde los minerales primarios, es decir desde formas no asimilables, a especies de mayor actividad e influencia sobre los vegetales y el entorno. De esta forma, la presencia de una fuerte toxicidad para muchas plantas sólo se manifiesta a partir de un cierto grado de evolución edáfica, y por tanto es máxima en condiciones tropicales húmedas.

Otro ejemplo de aparición natural de una anomalía de alta concentración de una forma tóxica se produce en la evolución acidificante de los suelos por la acción conjunta de la hidrólisis, lavado de cationes, presión de CO2 y ácidos orgánicos que, progresivamente, conducen a una mayor concentración de Al disuelto y a un predominio de especies nocivas como Al+3 o las formas Al-OH escasamente polimerizadas (Macias, 1993).

Los fenómenos naturales pueden ser causas de importantes contaminaciones en el suelo. Así es bien conocido el hecho de que un solo volcán activo puede aportar mayores cantidades de sustancias externas y contaminantes, como cenizas, metales pesados, H+ y SO4=, que varias centrales térmicas de carbón.

Pero las causas más frecuentes de contaminación son debidas a la actuación antrópica, que al desarrollarse sin la necesaria planificación producen un cambio negativo de las propiedades del suelo.

En los estudios de contaminación, no basta con detectar la presencia de contaminantes sino que se han de definir los máximos niveles admisibles y además se han de analizar posibles factores que puedan influir en la respuesta del suelo a los agentes contaminantes, como son: vulnerabilidad, poder de amortiguación, movilidad, biodisponibilidad, persistencia y carga crítica, que pueden modificar los denominados "umbrales generales de la toxicidad" para la estimación de los impactos potenciales y la planificación de las actividades permitidas y prohibidas en cada tipo de medio.

Vulnerabilidad. Representa el grado de sensibilidad (o debilidad) del suelo frente a la agresión de los agentes contaminantes. Este concepto está relacionado con la capacidad de amortiguación. A mayor capacidad de amortiguación, menor vulnerabilidad. El grado de vulnerabilidad de un suelo frente a la contaminación depende de la intensidad de afectación, del tiempo que debe transcurrir para que los efectos indeseables se manifiesten en las propiedades físicas y químicas de un suelo y de la velocidad con que se producen los cambios secuenciales en las propiedades de los suelos en respuesta al impacto de los contaminantes.

Permite diferenciar los riesgos potenciales de diferentes actividades o predecir las consecuencias de la continuación en las condiciones actuales.

En muchas ocasiones, resulta difícil obtener los grados de sensibilidad de los suelos frente a un determinado tipo de impacto, debido a la fuerte heterogeneidad de los suelos, incluso para suelos muy próximos.

Poder de amortiguación. El conjunto de las propiedades físicas, químicas y biológicas del suelo lo hacen un sistema clave, especialmente importante en los ciclos biogeoquímicos superficiales, en los que actúa como un reactor complejo, capaz de realizar funciones de filtración, descomposición, neutralización, inactivación, almacenamiento, etc. Por todo ello el suelo actúa como barrera protectora de otros medios más sensibles, como los hidrológicos y los biológicos. La mayoría de los suelos presentan una elevada capacidad de depuración.

Esta capacidad de depuración tiene un límite diferente para cada situación y para cada suelo. Cuando se alcanza ese límite el suelo deja de ser eficaz e incluso puede funcionar como una "fuente" de sustancias peligrosas para los organismos que viven en él o de otros medios relacionados.

Un suelo contaminado es aquél que ha superado su capacidad de amortiguación para una o varias sustancias, y como consecuencia, pasa de actuar como un sistema protector a ser causa de problemas para el agua, la atmósfera, y los organismos. Al mismo tiempo se modifican sus equilibrios biogeoquímicos y aparecen cantidades anómalas de determinados componentes que originan modificaciones importantes en las propiedades físicas, químicas y biológicas del suelo.

El grado de contaminación de un suelo no puede ser estimado exclusivamente a partir de los valores totales de los contaminantes frente a determinados valores guia, sino que se hace necesario considerar la biodisponibilidad, movilidad y persistencia (Calvo de Anta, 1997).

Por biodisponibilidad se entiende la asimilación del contaminante por los organismos, y en consecuencia la posibilidad de causar algún efecto, negativo o positivo.

La movilidad regulará la distribución del contaminante y por tanto su posible transporte a otros sistemas.

La persistencia regulará el periodo de actividad de la sustancia y por tanto es otra medida de su peligrosidad.

Carga crítica. Representa la cantidad máxima de un determinado componente que puede ser aportado a un suelo sin que se produzcan efectos nocivos.

Este concepto de carga crítica explica, por ejemplo, por qué los efectos de la lluvia ácida aparecieron de forma más alarmante en los países Escandinavos que en los de Centro Europa, estos últimos con valores de precipitación ácida más altos.

La abundancia de lagos, el predominio de suelos pobres en cationes básicos y abundantes formas de Al y Fe activas debido a la baja velocidad de alteración existentes a las bajas temperaturas de los países Escandinavos, fueron las causas del intenso impacto. Por el contrario, en Centroeuropa la presencia de suelos formados a partir de loess, ricos en Ca, junto a las temperaturas más altas, permiten una mayor capacidad de amortiguación. Ahora bien, cincuenta años más tarde también se manifestaron los efectos de la lluvia ácida en Centroeuropa, lo que implica que es necesario un estudio del suelo y su entorno para hacer una buena planificación de valoración de impacto ambiental.

Depuración y potabilización del agua

Potabilización de Aguas

La potabilización es el proceso consistente en la eliminación de los sólidos suspendidos, aglomeración, decantación de los coloides y desinfección de organismos patógenos mediante la coagulación, el ablandamiento, la eliminación de hierro y manganeso, la eliminación de olor y sabor, la sedimentación, la filtración, el control de corrosión, la evaporación y la desinfección, todo ello realizado en las estaciones de tratamiento de agua potable (ETAP). La potabilización tiene por objetivo hacer el agua apta para su consumo.

Esquema de funcionamiento de ETAP

  1. TOMA DEL RIO. Punto de captación de las aguas; REJA. Impide la penetración de elementos de gran tamaño (ramas, troncos, peces, etc.).

  2. DESARENADOR. Sedimenta arenas que van suspendidas para evitar dañar las bombas.

  3. BOMBEO DE BAJA (Bombas también llamadas de baja presión). Toman el agua directamente de un río, lago o embalse, enviando el agua cruda a la cámara de mezcla.

  4. CAMARA DE MEZCLA. Donde se agrega al agua productos químicos. Los principales son los coagulantes (sulfato de alúmina), alcalinizantes (cal).

  5. DECANTADOR. El agua llega velozmente a una pileta muy amplia donde se reposa, permitiendo que se depositen las impurezas en el fondo. Para acelerar esta operación, se le agrega al agua coagulantes que atrapan las impurezas formando pesados coágulos. El agua sale muy clarificada y junto con la suciedad quedan gran parte de las bacterias que contenía.

  6. FILTRO. El agua decantada llega hasta un filtro donde pasa a través de sucesivas capas de arena de distinto grosor. Sale prácticamente potable.

  7. DESINFECCIÓN. Para asegurar aún más la potabilidad del agua, se le agrega cloro que elimina el exceso de bacterias y lo que es muy importante, su desarrollo en el recorrido hasta las viviendas.

  8. BOMBEO DE ALTA. Toma el agua del depósito de la ciudad.

  9. DEPÓSITO. Desde donde se distribuye a toda la ciudad.

  10. CONTROL FINAL. Antes de llegar al consumo, el agua es severamente controlada por químicos expertos, que analizan muestras tomadas en distintos lugares del sistema.

 

Potabilización del Agua

 El tratamiento del recurso agua se puede dividir en dos categorías, según sea si se trata de agua dulce que no ha sido utilizada para cubrir las necesidades del hombre, o de agua que éste ha emitido como residuo después de usarla: 
Tratamiento de aguas continentales de origen superficial o subterráneo. 
Tratamiento de aguas residuales de origen doméstico o industrial.

  El agua pura no se encuentra en forma natural porque está normalmente  contaminada por el aire y el suelo.  Las impurezas pueden ser orgánicas y/o inorgánicas ya sea disueltas, o en forma de material particulado. Estas impurezas pueden provenir de la degradación  biológica de sustancias orgánicas que producen ácidos grasos,  carbohidratos, aminoácidos e hidrocarburos; de sustancias inorgánicas como metales tóxicos, material particulado como arcillas y sedimentos y de microorganismos como bacterias, virus y protozoos.

 Los contaminantes químicos corrientes son  metales pesados como hierro, manganeso, plomo, mercurio, arsénico, cobre, cinc, compuestos nitrogenados tales como amoníaco, nitrito y nitrato, carbonato o bicarbonato de calcio y magnesio, aniones como cloruro, fluoruro, sulfato y silicatos y las mencionadas, sustancias orgánicas.  Aparte de estas sustancias, existen otros contaminantes de carácter antropogénic El agua para beber debe cumplir con una serie de requisitos de calidad física, química y biológica.  Desde el punto de vista físico el agua debe ser traslúcida, con una turbiedad y color mínimo -según normas de las autoridades de Salud-, inodora e insípida.  Los requisitos de calidad química implican que el agua potable no debe contener los siguientes elementos o compuestos en concentraciones totales mayores que las indicadas en la tabla a continuacióno tales como cianuros, fenolePara asegurar la salud de la población, al agua potable se le exige que no contenga microorganismos patógenos.  Como no es práctico  examinar todos éstos, se recurre a examinar bacterias del grupo coliforme,  indicativa de la contaminación de animales y de la bacteria Escherichia coli,  indicativa de contaminación fecal.  s, cromo y deterge Muchas de estas impurezas, incluyendo los microorganismos patógenos, los ácidos húmicos que son corrientemente responsables del color, los ácidos fúlvicos y los  complejos  arcilla-metal están en el rango del tamaño coloidal: 1 nm a 10 µm (1 namómetro = 10-9m; 1 micrómetro = 10-6m).    Los coloides son partículas de tamaño intermedio entre las moléculas y las partículas suspendidas que tarde o temprano decantan por efecto de la gravedad.  Es decir el estado coloidal está entre las soluciones y las suspensiones que terminan precipitando.  Aunque las partículas coloidales son muy pequeñas, son lo suficientemente grandes como para dispersar la luz (efecto Tyndall) por lo que estas partículas comunican aspecto turbio u opaco al agua, a menos que estén muy diluidas.  La mayoría de los coloides  están cargados negativamente, por lo que en agua son estables debido a la repulsión electrostática entre estas partículas invisibles.  Esta repulsión sobrepasa las fuerzas de atracción de van der Waals, por lo que no se aglomeran y por lo tanto no precipitan. 

    El objetivo para obtener un agua limpia y sana, potable, de un agua natural, es remover los sólidos suspendidos, aglomerar y decantar los coloides y desinfectarla de organismos patógenos. 

  El agua natural, cruda o impura, puede provenir de ríos, lagos, embalses o de fuentes subterráneas.  El tratamiento de estas aguas suele constar de varias etapas.  En el caso de aducción superficial, el tratamiento comprende las etapas de filtración gruesa, sedimentación mediante el proceso físico´químico de coagulación-floculación, filtración por arena y desinfección.  Después de la filtración gruesa a través de rejas y mallas donde quedan piedras, ramas y otras impurezas que flotan o se arrastran, el agua se deja reposar en estanques desarenadores en los cuales se asienta la arena fina y otras partículas pequeñas.  Luego el agua se hace pasar a otros estanques en los cuales coagulan las partículas muy finas, como las arcillas coloidales, mediante la adición de sulfato de aluminio o cloruro o sulfato férrico, sales que producen la aglomeración de los coloides con formación de agregados coloidales, o flóculos que pueden decantar debido a su mayor tamaño y peso. 
 

 La coagulación implica tres etapas: adición de coagulante, desestabilización de la partícula coloidal y formación de flóculos.  La adición de sales coagulantes como las ya dichas sulfato de aluminio, sulfato férrico o cloruro férrico, produce cationes poliméricos tales como [Al13O4(OH)24]7+ y  [Fe3(OH)4]5+  cuyas cargas positivas neutralizan las cargas negativas de los coloides, permitiendo que las partículas se unan formando aglomerados pequeños denominados flóculos.

 

La reunión de estos flóculos pequeños en conglomerados mayores  (floculación) se realiza con ayuda de polímeros polielectrolíticos, que permiten la decantación a velocidades altas de sedimentación.  Debido a que la coagulación y la inmediata etapa de floculación ocurren muy rápidamente, en la práctica poco se distinguen.

 

   Las dosis de coagulantes son mayores a 0,03 milimoles/litro como Fe y mayores a 0,05 mmol/L  como Al  y el pH más cercano al neutro, es el más adecuado.  Los polielectrolitos más usuales son las poliacrilamidas con grupos carboxilato. 

   Una vez decantados y filtrados los flóculos, a través de arena,  el agua se somete a desinfección.  El principal desinfectante que se emplea es el cloro.  La disolución de este gas en agua a 25°C y 1 atmósfera de presión es aproximadamente 7g/L.  Cuando el cloro se disuelve en agua, reacciona con ésta para formar ácido hipocloroso (HOCl): 
ntes.

  De todas estas especies que se generan por reacción con agua, sólo el ClO- y HOCl son  bactericidas, por lo que para cualquier tratamiento de desinfección es preciso operar a un  pH que permita la máxima concentración de estas especies. 

   El agua desinfectada se filtra y debe quedar al menos con 0,2 mg/L de cloro residual para prevenirla de contaminación biológica en el camino de la planta al consumidor. 

   El siguiente esquema  muestra el tratamiento para la potabilización de aguas crudas.  
 

PROCESO:

  1. Dosificación de productos químicos
  2. Medidor parshall (mezcla rápida)
  3. Sistema de abastecimiento
  4. Presedimentación
  5. Caja de mezcla
  6. Filtración
  7. Desinfección
  8. Almacenamiento
  9. Bombeo a la ciudad

CRIBADO:

Retención de sólidos flotantes como hierbas acuáticas, basura, madera, etc., a la entrada de la planta.

 

DOSIFICACIÓN:

El pimer punto de dosificación de productos químicos se lleva a cabo en el canal alimentador antes del punto de medición, adicionando polímero o sulfato de aluminio para iniciar el proceso de Coagulación-Floculación.

PRESEDIMENTACIÓN:

Se cuenta con 2 tanques presedimentadores, con una capacidad de 43,000 m³ c/u con un tiempo de retención de 10 horas, trabajando en paralelo teniendo como principales funciones la de almacenamiento y sedimentación de sólidos.

 

CAJA DE MEZCLA:

Este elemento proporciona un flujo equitativo a los módulos de filtración, así como una buena mezcla de los productos químicos que se deseen dosificar (según requiera el tratamiento).

 

FILTRACIÓN:

El medio filtrante consta de antracita y gravas de soporte. El retrolavado de filtros se lleva a cabo con flujo proveniente de las unidades y un vertedor, el cual proporciona la carga necesaria para realizar el proceso.

 

DESINFECCIÓN:

En este proceso se eliminan por completo todas las bacterias patógenas que pudiera traer el agua y que causan enfermedades al hombre, como la amiba de vida libre. Para desinfectar se emplea el cloro, mundialmente utilizado por su alto poder germicida, fácil manejo y seguridad.

REGULACIÓN:

El propósito de los tanques de almacenamiento y regulación de agua potabilizada, es el de proveer el tiempo de contacto del cloro para la desinfección y contar con volumen disponible para cubrir altas demandas.

BOMBEO A LA RED:

Catorce equipos verticales y cuatro horizontales de bombeo disponibles para suministrar la energía necesaria, en forma de presión, para hacer llegar el agua potabilizada a cada uno de los usuarios en la red de distribución.

IMPACTOS EN LA HIDROSFERA

Contaminación

Chimeneas de fábrica de Volkswagen.
Contaminación por vertido de petróleo.
Contaminación por fábricas.

La contaminación es la introducción de cualquier contaminante, sustancia o forma de energía que puede provocar algún daño o desequilibrio, irreversible o no, en el medio inicial. Para que exista contaminación, la sustancia contaminante deberá estar en cantidad relativa suficiente como para provocar ese desequilibrio. Esta cantidad relativa puede expresarse como la masa (cantidad) de la sustancia introducida en relación con la masa o el volumen del medio receptor de la misma. Este cociente recibe el nombre de Concentración. Un ejemplo de concentración habitual es de miligramos/litro.

Los agentes contaminantes tienen relación con el crecimiento de las poblaciones ya que al aumentar éstas, la contaminación que ocasionan es mayor. Los contaminantes por su consistencia, se clasifican en sólidos, líquidos y gaseosos.

Los agentes sólidos estan constituidos por la basura en sus diversas presentaciones. Provocan contaminación del suelo, del aire y del agua. Del suelo porque produce microorganismos y animales dañinos; del aire porque produce mal olor y gases tóxicos y del agua porque la ensucia y no puede utilizarse.

Los agentes líquidos estan conformados por las aguas negras , los desechos industriales, los derrames de combustibles derivados del petróleo los cuales dañan básicamente el agua de ríos, lagos, mares y océanos; con ello provocan la muerte de diversas especies.

Los agentes gaseosos están constituidos por la combustión del petróleo (óxido de nitrógeno y azufre)y por la quema de combustibles como la gasolina(monóxido de carbono), basura y desechos de plantas y animales.

Todos los agentes contaminantes provienen de una fuente determinada y pueden provocar enfermedades respiratorias y digestivas. Es necesario que el hombre tome conciencia del problema.

Se denomina contaminación atmosférica o contaminación ambiental a la presencia en el ambiente de cualquier agente (físico, químico o biológico) o bien de una combinación de varios agentes en lugares, formas y concentraciones tales que sean o puedan ser nocivos para la salud, la seguridad o para el bienestar de la población; o que puedan ser perjudiciales para la vida vegetal o animal; o impidan el uso normal de las propiedades y lugares de recreación, y el goce de los mismos. La contaminación ambiental es también la incorporación a los cuerpos receptores de sustancias sólidas, líquidas o gaseosas, o mezclas de ellas, siempre que alteren desfavorablemente las condiciones naturales de los mismos, o que puedan afectar la salud, la higiene o el bienestar del público.

 

 

Efectos

Expertos en salud ambiental y cardiólogos de la Universidad de California del Sur, acaban de demostrar por primera vez lo que hasta ahora era apenas una sospecha: la contaminación ambiental de las grandes ciudades afecta la salud cardiovascular. Se comprobó que existe una relación directa entre el aumento de las partículas contaminantes del aire de la ciudad y el engrosamiento de la pared interna de las arterias (la "íntima media"), que es un indicador comprobado de la arteriosclerosis.

El efecto persistente de la contaminación del aire respirado, en un proceso silencioso de años, conduce finalmente al desarrollo de afecciones cardiovasculares agudas, como el infarto. Al inspirar partículas ambientales con un diámetro menor de 2,5 micrómetros, ingresan en las vías respiratorias más pequeñas y luego irritan las paredes arteriales. Los investigadores hallaron que por cada aumento de 10 microgramos por metro cúbico de esas partículas, la alteración de la pared íntima media de las arterias aumenta un 5,9 %. El humo del tabaco y el que en general proviene del sistema de escape de los autos produce la misma cantidad de esas partículas. Normas estrictas de aire limpio contribuirían a una mejor salud con efectos en gran escala.

Otro de los efectos es el debilitamiento de la capa de ozono, que protege a los seres vivos de la radiación ultravioleta del sol, debido a la destrucción del ozono estratosférico por cloro y bromo procedentes de la contaminación. El efecto invernadero está acentuado por el aumento de la concentración de CO2 atmosférico y otros gases de efecto invernadero como, por ejemplo, el metano.

MEDIDAS PARA DISMINUIR LA CONTAMINACIÓN ATMOSFÉRICA.

Reducir las emisiones de co^2, utilizando y fomentando el uso de energías renovables y el empleo de combustibles más limpios.

Utilizar el transporte público, desplazarse en bicicleta o andar.

Controlar las emisiones de gases , no utilizar aerosoles que contengan compuestos de CFC.

Ahorrar energía en todos los niveles y sectores , no poner la calecfacción e el aire acondicionado si no es necesario, comprar  electrodomésticos de clase A, etc.

Potenciar la población forestal, respetar los boques, pues son consumidores de carbono y pueden controlarlo, etc.

Fomentar la depuración y la investigación de procesos de producción menos contaminantes.

LA LLUVIA ÁCIDA.

Lluvia ácida

Efectos de la lluvia ácida en un bosque de laRepública Checa.

La lluvia ácida se forma cuando la humedad en el aire se combina con los óxidos de nitrógeno y el dióxido de azufre emitidos por fábricas, centrales eléctricas y vehículos que queman carbón o productos derivados del petróleo. En interacción con el vapor de agua, estos gases forman ácido sulfúrico y ácidos nítricos. Finalmente, estas sustancias químicas caen a la tierra acompañando a las precipitaciones, constituyendo la lluvia ácida.

Los contaminantes atmosféricos primarios que dan origen a la lluvia ácida pueden recorrer grandes distancias, trasladándolos los vientos cientos o miles de kilómetros antes de precipitar en forma de rocío, lluvia, llovizna, granizo, nieve, niebla o neblina. Cuando la precipitación se produce, puede provocar importantes deterioros en el ambiente.

La lluvia normalmente presenta un pH de aproximadamente 5.65 (ligeramente ácido), debido a la presencia del CO2 atmosférico, que forma ácido carbónico, H2CO3. Se considera lluvia ácida si presenta un p H de menos de 5 y puede alcanzar el pH del vinagre (pH 3). Estos valores de pH se alcanzan por la presencia de ácidos como el ácido sulfúrico, H2SO4, y el ácido nítrico, HNO3. Estos ácidos se forman a partir del dióxido de azufre, SO2, y el monóxido de nitrógeno que se convierten en ácidos. Los hidrocarburos y el carbón usados como fuente de energía, en grandes cantidades, pueden también producir óxidos de azufre y nitrógeno y el dióxido de azufre emitidos por fábricas, centrales eléctricas y vehículos que queman carbón o productos derivados del petróleo. En interacción con el vapor de agua, estos gases forman ácido sulfúrico y ácidos nítricos. Finalmente, estas sustancias químicas suben a la atmósfera forman una nube y después caen a la tierra acompañando a las precipitaciones, constituyendo la lluvia ácida.

Formación de la lluvia ácida 

Una gran parte del SO2 (dióxido de azufre) emitido a la atmósfera procede de la emisión natural que se produce por las erupciones volcánicas, que son fenómenos irregulares. Sin embargo, una de las fuentes de SO2 es la industria metalúrgica.El SO2 puede proceder también de otras fuentes, por ejemplo como el sulfuro de dimetilo, (CH3)2S, y otros derivados, o como sulfuro de hidrógeno, H2S. Estos compuestos se oxidan con el oxígeno atmosférico dando SO2.Finalmente el SO2 se oxida a SO3 (interviniendo en la reacción radicales hidroxilo y oxígeno) y este SO3 se puede quedar disuelto en las gotas de lluvia, es el de las emisiones de SO2 en procesos de obtención de energía: el carbón, el petróleo y otros combustibles fósiles contienen azufre en unas cantidades variables (generalmente más del 1%), y, debido a la combustión, el azufre se oxida a dióxidos de azufre::S + O2 → SO2Los procesos industriales en los que se genera SO2, por ejemplo son en la industria metalúrgica.En la fase gaseosa el dióxido de azufre se oxida por reacción con el radical hidroxilo por una reacción intermolecular::SO2 + OH· → HOSO2· seguida por::HOSO2· + O2 → HO2· + SO3 En presencia del agua atmosférica o sobre superficies húmedas, el trióxido de azufre (SO3) se convierte rápidamente en ácido sulfúrico::SO3(g) + H2O(l) → H2SO4(l) El NO se forma por reacción entre el oxígeno y el nitrógeno a alta temperatura::O2 + N2 → 2NOUna de las fuentes más importantes es a partir de las reacciones producidas en los motores térmicos de los automóviles y aviones, donde se alcanzan temperaturas muy altas. Este NO se oxida con el oxígeno atmosférico::O2 + 2NO → 2NO2Y este 2NO2 reacciona con el agua dando ácido nítrico que se disuelve en el agua::3NO2 + H2O → 2HNO3 + NO

 

Efectos de la lluvia ácida 

La acidificación de las aguas de lagos, ríos y mares dificulta el desarrollo de vida acuática en estas aguas, lo que aumenta en gran medida la mortalidad de peces. Igualmente, afecta directamente a la vegetación, por lo que produce daños importantes en las zonas forestales, y acaba con microorganismos fijadores de N.

El termino "llúvia ácida" abarca la sedimentación tanto húmeda como seca de contaminantes ácidos que pueden producir el deterioro de la superficies de los materiales. Estos contaminantes que escapan a la atmósfera al quemarse carbón y otros componentes fósiles reaccionan con el agua y los oxidantes de la atmósfera y se transforman químicamente en ácido sulfúrico y nítrico. Los compuestos ácidos se precipitan entonces a la tierra en forma de lluvia, nieve o niebla, o pueden unirse a partículas secas y caer en forma de sedimentación seca.

La lluvia ácida por su carácter corrosivo, corroe a las construcciones y a las infraestructuras. Puede disolver, por ejemplo, el carbonato de calcio, CaCO3, y afectar de esta forma a los monumentos y edificaciones construidas con mármol o caliza.

Un efecto indirecto muy importante es que los protones, H+, procedentes de la llúvia ácida arrastran ciertos iones del suelo. Por ejemplo, cationes de hierro, calcio, aluminio, plomo o zinc. Como consecuencia, se produce un empobrecimiento en ciertos nutrientes esenciales y el denominado estrés en las plantas, que las hace más vulnerables a las plagas.

Los nitratos y sulfatos, sumados a los cationes lixiviados de los suelos, contribuyen a la eutrofización de ríos y lagos, embalses y regiones costeras, lo que deteriora sus condiciones ambientales naturales y afecta negativamente a su aprovechamiento.

Un estudio realizado en 2005 por Vincent Gauci1 de Open University, sugiere que cantidades relativamente pequeñas de sulfato presentes en la lluvia ácida tienen una fuerte influencia en la reducción de gas metano producido por metanógenos en áreas pantanosas, lo cual podría tener un impacto, aunque sea leve, en el efecto invernadero.2

 

Soluciones 

Entre las medidas que se pueden tomar para reducir la emisión de los contaminantes precursores de éste problema tenemos las siguientes:

  • Reducir el nivel máximo de azufre en diferentes combustibles.
  • Trabajar en conjunto con las fuentes fijas de la industria para establecer disminuciones en la emisión de SOx y NOx, usando tecnologías para control de emisión de estos óxidos.
  • Impulsar el uso de gas natural en diversas industrias.
  • Introducir el convertidor catalítico de tres vías.
  • La conversión a gas en vehículos de empresas mercantiles y del gobierno.
  • Ampliación del sistema de transporte eléctrico.
  • Instalación de equipos de control en distintos establecimientos.
  • No agregar muchas sustancias químicas en los cultivos.
  • Adición de un compuesto alcalino en lagos y ríos para neutralizar el pH.
  • Control de las condiciones de combustión (Temperatura, oxigeno, etc.).

EL EFECTO INVERNADERO

Se denomina efecto invernadero al fenómeno por el cual determinados gases, que son componentes de la atmósfera planetaria, retienen parte de la energía que el suelo emite por haber sido calentado por la radiación solar. Afecta a todos los cuerpos planetarios dotados de atmósfera. De acuerdo con el actual consenso científico, el efecto invernadero se está viendo acentuado en la Tierra por la emisión de ciertos gases, como el dióxido de carbono y el metano, debida a la actividad económica humana.

Este fenómeno evita que la energía solar recibida constantemente por la Tierra vuelva inmediatamente al espacio, produciendo a escala planetaria un efecto similar al observado en un invernadero.

Balance radiativo terrestre

Artículo principal: Balance radiativo terrestre
Representación esquemática simplificada de los flujos de energía entre el espacio, laatmósfera de la Tierra y la superficie de la Tierra.

La imagen muestra cómo estos flujos se combinan para mantener caliente la superficie del planeta creando el efecto invernadero. Si el calor total recibido en la superficie fuera 235 W/m2, entonces la temperatura de equilibrio de la superficie de la Tierra sería de -18 °C (Lashof 1989). En cambio, la atmósfera de la Tierra recicla el calor que viene de la superficie y entrega unos 324 W/m2 adicionales que elevan la temperatura media de la superficie a aproximadamente +14 °C.1

El efecto invernadero es un factor esencial del clima de la Tierra. Bajo condiciones de equilibrio, la cantidad total de energía que entra en el sistema por la radiación solar se compensará exactamente con la cantidad de energía radiada al espacio, permitiendo a la Tierra mantener una temperatura media constante en el tiempo.

Todos los cuerpos, por el hecho de estar a una ciertatemperatura superior al cero absoluto, emiten una radiación electromagnética. La radiación electromagnética se traslada sin obstáculos a través del vacío, pero puede hacerlo también a través de medios materiales con ciertas restricciones. Las radiaciones de longitud de onda más corta (o frecuencia más alta) son más penetrantes, como ilustra el comportamiento de los rayos X cuando se los compara con la luz visible. También depende de las propiedades del medio material, especialmente del parámetro denominado transmitancia, que se refiere a la opacidad de un material dado para radiación de una determinada longitud de onda.

Véase también: Cuerpo negro

 

Radiación recibida del Sol

El Sol es el responsable de casi toda la energía alcanzada desde el exterior a la superficie de la Tierra. El Sol emite radiación que se puede considerar de onda corta, centrada en torno a la parte del espectro a la que son sensibles los ojos, y que llamamos por ello luz visible. Incluye también dosis significativas de radiación ultravioleta, de longitud de onda menor que la visible. La parte ultravioleta es absorbida en buena parte por el ozono y otros gases en la alta atmósfera, contribuyendo a su calentamiento, mientras que la luz visible traspasa la atmósfera casi sin problemas. La Tierra intercepta una energía del Sol que en la parte superior de la atmósfera vale 1366 W/m2. Sin embargo, sólo intercepta energía la sección de la Tierra orientada hacia el Sol, mientras que la irradia a toda la superficie terrestre, así que hay que dividir la constante solar entre 4, lo que lleva a 342 W/m2. El balance y equilibrio, en la vida terrestre se halla afectado por la forma cambiante del mismo.

Véase también: Constante solar

 

Albedo

De la radiación que llega al planeta, principalmente en forma de luz visible, una parte es reflejada inmediatamente. Esta fracción de energía que es devuelta inmediatamente al espacio se llama albedo, y para la Tierra vale 0,313 (31,3%), así que se pierden en el espacio 0,313times342=107W/m^2 ,!,por lo que quedan 342-107=235 W/m^2 ,! que es la energía que no es reflejada por la atmósfera, el suelo sólido o el océano. El albedo de la Tierra es un factor causal importante de su clima, afectado por causas naturales y también por otras antropogénicas.

Es frecuente confundir los efectos del albedo con los del efecto invernadero, pero el primero se refiere a energía devuelta directamente al espacio, mientras que el segundo lo hace a energía primero absorbida y luego emitida. En el primer caso se trata de los mismos fotonesllegados desde el Sol, en el segundo se trata de los que la Tierra emite, tras calentarse, precisamente por no haber reflejado toda la radiación solar.

 

Efecto invernadero

La Tierra, como todo cuerpo caliente, emite radiación, pero al ser su temperatura mucho menor que la solar, emite radiación infrarroja de una longitud de onda mucho más larga que la que recibe. Sin embargo, no toda esta radiación vuelve al espacio, ya que los gases de efecto invernadero absorben la mayor parte.

La atmósfera transfiere la energía así recibida tanto hacia el espacio (37,5%) como hacia la superficie de la Tierra (62,5%). Ello representa 324 W/m2, casi la misma cantidad de energía que la proveniente del Sol, aún sin albedo. De este modo, el equilibrio térmico se establece a una temperatura superior a la que se obtendría sin este efecto. La importancia de los efectos de absorción y emisión de radiación en la atmósfera son fundamentales para el desarrollo de la vida tal y como se conoce. De hecho, si no existiera este efecto la temperatura media de la superficie de la Tierra sería de unos -22 ºC, y gracias al efecto invernadero es de unos 14ºC.

En zonas de la Tierra cuya atmósfera tiene poca proporción de gases de efecto invernadero (especialmente de vapor de agua), como en los grandes desiertos, las fluctuaciones de temperatura entre el día (absorción de radiación solar) y la noche (emisión hacia el cielo nocturno) son muy grandes.

Desde hace unos años el hombre está produciendo un aumento de los gases de efecto invernadero,2 con lo que la atmósfera retiene más calor y devuelve a la Tierra aún más energía causando un desequilibrio del balance radiativo y un calentamiento global.

Además, se puede asemejar con un invernadero, siendo el CO2 comparado con el techo de cristal.

 

Gases de efecto invernadero y actividad industrial

Evolución de las emisiones de dióxido de carbono, en millones de toneladas por año, discriminada por región.
Artículo principal: Gas de efecto invernadero

Los denominados gases de efecto invernadero o gases invernadero, responsables del efecto descrito, son:

  • Vapor de agua (H2O).
  • Dióxido de carbono (CO2).
  • Metano (CH4).
  • Óxidos de nitrógeno (NOx).
  • Ozono (O3).
  • Clorofluorocarbonos (CFCl3).

Si bien todos ellos (salvo los CFCs) son naturales, en tanto que ya existían en la atmósfera antes de la aparición del hombre, desde la Revolución industrial y debido principalmente al uso intensivo de los combustibles fósilesen las actividades industriales y el transporte, se han producido sensibles incrementos en las cantidades de óxidos de nitrógeno y dióxido de carbono emitidas a la atmósfera, con el agravante de que otras actividades humanas, como la deforestación, han limitado la capacidad regenerativa de la atmósfera para eliminar el dióxido de carbono, principal responsable del efecto invernadero.

Estos cambios causan un paulatino incremento de la temperatura terrestre, el llamado cambio climático o calentamiento global que, a su vez, es origen de otros problemas ambientales:

Variación de la temperatura global y de la concentración de dióxido de carbono presente en el aire en los últimos 1000 años.
  • Desertización y sequías, que causan hambrunas
  • Deforestación, que aumenta aún más el cambio
  • Inundaciones
  • Fusión de los casquetes polares y otros glaciares, que causa un ascenso del nivel del mar, sumergiendo zonas costeras.3 Sólo influye en dicha variación el hielo apoyado en suelo firme, ya que el hielo que flota en el mar no aumenta el nivel del agua.
  • Destrucción de ecosistemas
  • Además, el efecto invernadero es uno de los principales factores que provocan el calentamiento global de la Tierra, debido a la acumulación de los llamados gases invernadero CO2, H2O, O3, CH4 y CFCs en la atmósfera.

 

Protocolo de Kioto

Artículo principal: Protocolo de Kioto sobre el cambio climático

El protocolo de Kioto es un convenio internacional que intenta limitar globalmente las emisiones de gases de efecto invernadero. El protocolo surge de la preocupación internacional por el calentamiento global que podrían incrementar las emisiones descontroladas de estos gases.

De todos los planetas del Sistema Solar, Venus es el que tiene un efecto invernadero más intenso debido a la densidad y composición de su atmósfera, ya que contiene un 96% de CO2 y tiene una presión superficial de 90 bar. En estas condiciones la superficie alcanza temperaturas de hasta 460 ºC. Cuando comenzó el estudio de la atmósfera de Venus en las décadas de 1960-70, surgieron las primeras señales de alarma sobre un posible efecto invernadero en la Tierra provocado por el aumento de la concentración de dióxido de carbono en la atmósfera. Siendo ambos planetas geológicamente muy similares su principal diferencia se encuentra en la intensidad del efecto invernadero en Venus.

La Tierra, debido a su fuerza de gravedad, retiene en su superficie el aire y el agua del mar, y para poner en movimiento el aire y el mar en relación con la superficie del planeta se necesita una energía cuya fuente primaria es el Sol, que emite en todas las direcciones un flujo de luz visible o próxima a la radiación visible, en las zonas del ultravioleta y del infrarrojo.

DESTRUCCIÓN DE LA CAPA DE OZONO

Agujero de ozono

Imagen del agujero de ozono más grande en laAntártida registrada en septiembre de 2000. Datos obtenidos por el instrumento Total Ozone Mapping Spectrometer (TOMS) a bordo de un satélite de la NASA.

Se denomina agujero de ozono o agujero de la capa de ozono a la zona de la atmósferaterrestre donde se producen reducciones anormales de la capa de ozono, fenómeno anualobservado durante la primavera en las regiones polares y que es seguido de una recuperación durante el verano. El contenido en ozono se mide en Unidades Dobson, kilogramos por Metro cúbico.

Sobre la Antártida la pérdida de ozono llega al 70%, mientras que sobre el Ártico llega al 30%. Este fenómeno fue descubierto y demostrado por Sir Gordon Dobson (G.M.B. Dobson) en 1960, que atribuyó a las condiciones meteorológicas extremas que sufre el continente Antártico.[1]

Sin embargo, un amplio sector científico achacó este fenómeno al aumento de la concentración de cloro y de bromo en la estratosfera debido tanto a las emisiones antropogénicas decompuestos clorofluorocarbonados (CFC) como del desinfectante de almácigos bromuro de metilo.

En 1995 el mexicano Mario J. Molina es el primer científico en sostener esta teoría, obteniendo el Premio Nobel de Química.

En septiembre de 1987 varios países firmaron el Protocolo de Montreal, en el que se comprometían a reducir a la mitad la producción de CFC´s en un periodo de 10 años. A pesar de estas medidas, el agujero de ozono continúa con su ciclo de aparición-desaparición, según la teoría inicial de Dobson.

Formación y equilibrio de la capa de ozono 

Casi el 99% de la radiación ultravioleta del Sol que alcanza la estratosfera se convierte en calor mediante una reacción química que continuamente recicla moléculas de ozono (O3). Cuando la radiación ultravioleta impacta en una molécula de ozono, la energía escinde a la molécula en átomos de oxígeno altamente reactivos; casi de inmediato, estos átomos se recombinan formando ozono una vez más y liberando energía en forma de calor.

  • La formación de ozono se inicia con la fotólisis (ruptura de enlaces químicos por la energía radiante) del oxígeno molecular por la radiación solar de una longitud de onda menor de 240 nm:
O_2 longrightarrow	O + O
  • El ozono por sí mismo absorbe luz UV de entre 200 y 300 nm:
O_3	longrightarrow		O + O_2
  • Los átomos de oxígeno, al ser muy reactivos, se combinan con las moléculas de oxígeno para formar ozono:
O + O_2 + M	longrightarrow		O_3 + M

donde M es cualquier sustancia inerte, como por ejemplo el N2. El papel que tiene M en esta reacción exotérmica es absorber parte del exceso de energía liberada y prevenir la descomposición espontánea de la molécula de O3. La energía que no absorbe M es liberada en forma de calor. Cuando las moléculas de M regresan por sí mismas al estado basal, liberan más calor al entorno.

A pesar de que todo el ozono atmosférico en CNPT sería una capa de sólo unos 3 mm. de grosor, su concentración es suficiente para absorber la radiación solar de longitud de onda de 200 a 300 nm. Así, la capa de ozono funciona como un escudo que nos protege de la radiación UV.

La formación y destrucción del ozono por procesos naturales es un equilibrio dinámico que mantiene constante su concentración en la estratosfera. Se han registrado amplias variaciones interanuales y estacionales en todas las regiones del planeta en la densidad del ozono estratosférico; se verificó que en el hemisferio austral la concentración pasa por un mínimo en primavera y luego se regenera.

 

Causas de la disminución de ozono en la estratosfera 

Investigaciones posteriores acerca de las variaciones en la densidad del ozono y sus causas generaron temores sobre el futuro de la capa de ozono: entre otras cosas, se descubrieron “agujeros” en la capa sobre los dos polos del planeta y un adelgazamiento de la capa alrededor de todo el globo.

 

Clorofluorocarbonos 

Desde mediados de los años 1970, los científicos se han preocupado por los efectos nocivos de ciertos clorofluorocarbonos (CFC) en la capa de ozono. Los CFC, que se conocen con el nombre comercial de freones, se sintetizaron por primera vez en los años 30. Los más comunes son CFCl3 (freón 11), CF2Cl2 (freón 12), C2F3Cl3 (freón 113) y C2F4Cl4 (freón 114).

Como estos compuestos se licúan con facilidad, y son más o menos inertes, no tóxicos, no combustibles y volátiles, se han utilizado como refrigerantes para acondicionadores de aire y refrigeradores, en lugar del amoníaco (NH3) y del dióxido de azufre (SO2) líquido, que son muy tóxicos. Los CFC se utilizan en grandes cantidades para fabricar productos desechables, como vasos y platos, propelentes para aerosoles en lata, y disolventes para limpiar tarjetas de circuitos electrónicos. La mayor parte de los CFC que se usan en el comercio y la industria se arrojan a la atmósfera.

Como son poco reactivos, los CFC se difunden con lentitud (tardan años) hacia la estratosfera sin sufrir cambios; ahí se descomponen por la radiación UV de longitudes de onda de 175 a 220 nm:

(freón 11)  CFCl_3 longrightarrow	CFCl_2 + Cl(freón 12)  CF_2Cl_2 longrightarrow	CF_2Cl + Cl

Los átomos de cloro son muy reactivos y experimentan las siguientes reacciones:

 Cl + O_3	longrightarrow	ClO + O_2  ClO + O		 longrightarrow	Cl + O_2

El resultado global es la eliminación neta de una molécula de O3 de la estratosfera:

 O_3 + O		 longrightarrow	 2O_2

Los átomos de oxígeno de esta reacción los aporta la descomposición fotoquímica del oxígeno molecular y del ozono. Se debe notar que el átomo de Cl funciona como catalizador en el mecanismo de la reacción, y, como no se utiliza, puede participar en muchas reacciones de este tipo, pudiendo destruir más de 100.000 moléculas de O3 antes de ser eliminado por alguna otra reacción. La especie ClO es un intermediario porque se produce en el primer paso elemental y se consume en el segundo paso. Este mecanismo de destrucción de O3 se ha comprobado por la detección del monóxido de cloro en la estratosfera en años recientes. La concentración de O3 disminuye en las regiones que tienen más cantidad de ClO.

 

Óxidos de nitrógeno 

Otro grupo de compuestos que pueden destruir el ozono de la estratosfera son los óxidos de nitrógeno (representados como NOX), como NO,NO2N2O y N2O5. Estos compuestos provienen de los gases expulsados por los aviones supersónicos que vuelan a gran altura, así como por procesos naturales y por otros procesos hechos por el hombre en la Tierra. La radiación solar descompone una cantidad considerable de otros óxidos de nitrógeno en óxido nítrico (NO), que también actúa como catalizador en la destrucción del ozono. El NO2 es el intermediario, pero también puede reaccionar con el monóxido de cloro, formando nitrato de cloro (ClONO2). Este último es más o menos estable y sirve como “depósito de cloro”, otro factor que también contribuye a la destrucción del ozono estratosférico en los polos norte y sur.

 

Causas naturales y artificiales 

Existen estudios que sostienen que la influencia de las 7.500 toneladas de cloro provenientes de CFC que ascienden anualmente a la estratosfera es mínima frente a los 600.000.000 de toneladas de cloro y flúor (otro gas agresivo) en forma de sales que escapan de los océanos como aerosoles.

A estas cantidades de compuestos químicos de origen natural habría que sumarles los aportes de metilcloro por incendios de bosques y, por lo menos, otros 36.000.000 de toneladas anuales en forma de HCl proveniente de erupciones volcánicas. Se han observado correlaciones entre erupciones volcánicas fuertes y disminuciones temporarias en el tenor de ozono estratosférico y se considera probable que los volcanes de la Antártida tengan un efecto muy directo: uno solo de ellos, el Erebus, expulsa cada año unas 15.000 toneladas de cloro y, algo menos de flúor, a muy poca distancia de la estratosfera antártica. Sin embargo, se sabe que la mayor parte de este cloro regresa a la Tierra arrastrado por las lluvias antes de salir de la troposfera. Tampoco hay acuerdo sobre estas cifras relativas, que dependen de las mediciones y del método de cálculo.

Otro factor natural que influye en la velocidad de reconstitución de la capa de ozono es la variación de la actividad solar, ya que cuando hay mayor irradiación ultravioleta se genera más ozono, pero también más óxidos de nitrógeno que deprimen el tenor de ozono. Los orígenes de la incertidumbre acerca de los factores que afectan la capa de ozono son, como se ve, muy diversos.

 

Agujeros en la capa de ozono 

A mediados de los años 1980 se empezó a acumular pruebas de que a finales del invierno se había formado un “agujero” en la capa de ozono del Polo sur, donde el ozono se había reducido en casi 50%. Durante el invierno, en la estratosfera se forma una corriente de aire que rodea a la Antártida y que se conoce como “torbellino polar” o vortex. El aire que queda atrapado en este torbellino se vuelve extremadamente frío durante la noche polar, lo cual favorece la formación de partículas de hielo denominadas nubes polares estratosféricas. Estas nubes actúan como un catalizador heterogéneo al proporcionar una superficie para las reacciones en las que el HCl de la Tierra y el nitrato de cloro se convierten en moléculas de cloro reactivas:

HCl + ClONO_2	longrightarrow	Cl_2 + HNO_3

Al comienzo de la primavera, la luz solar separa al cloro molecular en sus correspondientes átomos de cloro, que son los responsables de la destrucción del ozono.

La situación es menos grave en el Ártico porque en esta región más caliente el torbellino no dura tanto tiempo. El vortex sella la Antártida y evita las influencias en esta región del resto de la atmósfera. El aislamiento producido por el vortex impide que el aire más cálido y rico en ozono existente alrededor de la Antártida, proveniente de los trópicos, fluya hacia el polo, lo que ayudaría a reemplazar el ozono destruido y elevar las temperaturas en este continente. En cambio el aire rico en ozono, que es llevado hacia el polo por las ondas planetarias, se junta al borde del vortex, formando un "anillo" de aire con altas concentraciones de ozono que puede ser visto en las imágenes satelitales.

La NASA señaló que si no se hubiera firmado el tratado de Montreal, dos terceras partes de la capa habría sido destruido y el "agujero" de ozono hubiera sido destruido. El CFC habría aumentado la temperatura mundial en más de un grado centígrado. La radiación ultravioleta, que daña el ADN, hubiera aumentado seis veces. Apenas cinco minutos de de exposición al Sol habría causado quemaduras a la piel. Los niveles de rayos ultravioletas durante el verano hubieran aumentado hasta 30. Finalmente, las tormentas de verano del Hemisferio Norte hubieran sido mucho más poderosas. 1

 

Actuaciones internacionales 

En 1976 un informe de la Academia Nacional de Ciencias de Estados Unidos aportaba una evidencia científica sobre la disminución de ozono. A raíz de éste, unos cuantos países, incluidos Canadá, Suecia, Noruega y Estados Unidos tomaron las primeras iniciativas de eliminación de CFCs en las latas de aerosoles.

Aunque esto se concibió como un primer paso hacia una regulación más exhaustiva, los progresos posteriores se ralentizaron por factores políticos y la aparición de informes de la misma academia que indicaban que el primer informe había sobrestimado la disminución de la capa de ozono.

En 1985, 20 países, incluyendo los mayores productores de CFCs firmaron la convención de Viena, donde se establecía un marco para la negociación de regulaciones internacionales sobre sustancias que afectaran a la capa de ozono. Ese mismo año se anunció el descubrimiento del agujero de ozono en la Antártida, lo que atrajo la atención del gran público sobre el tema.

En 1987, representantes de 43 naciones firmaron el Protocolo de Montreal. Se comprometieron a mantener los niveles de producción de CFCs de 1986, y a reducirlos en un 50% en 1999. Pero al irse acumulando más evidencia científica sobre el origen humano de la disminución del ozono, se hizo necesario un nuevo acuerdo, que se firmó en 1990 en Londres. Los participantes se comprometían a eliminar totalmente los CFCs en el año 2000. Sólo se permitía un pequeño porcentaje marcado como de uso esencial, como los inhaladores para casos de asma. Una nueva reunión en 1992 en Copenhague adelantó la fecha de eliminación al año 1996.

En gran proporción los CFCs fueron sustituidos por HCFCs. Estos últimos no suponen una amenaza para la capa de ozono, pero sí son gases que potencian el efecto invernadero.

Como propuesta curiosa, en 1989 el físico italiano Antonino Zichichi llegó a proponer lanzar misiles repletos de ozono para tapar el agujero de la Antártida.

Aunque las medidas asociadas al protocolo de Montreal han reducido las emisiones de CFCs, el efecto de esta reducción sobre el agujero de ozono aún no es estadísticamente significativo. Un trabajo de Newman et al en 2006 preveía que la recuperación total no se produjese hasta el año 2050, y que una recuperación parcial estadísticamente detectable no se daría hasta el año 2024.2

Hay una incertidumbre relativa a estos resultados: proviene del calentamiento global causado por el CO2, que al calentar la estratosfera podría conducir a un incremento de la disminución de la capa de ozono y de la frecuencia de aparición de agujeros.

 

Conceptos erróneos sobre el agujero de ozono 

La capa de ozono no es un objeto real El concepto de "capa de ozono" quiere decir en realidad "zona donde el ozono es más abundante de lo normal", pero no es en sí misma un objeto real. Por lo tanto, el agujero tampoco existe realmente, sólo es una zona donde la concentración de ozono es menor de lo normal.Los CFCs son demasiado pesados para llegar a la estratosfera En los primeros 80 kilómetros de la atmósfera terrestre la composición de los gases es prácticamente invariable con la altura, con la excepción hecha del vapor de agua. A esta capa se la llama a veces, por este motivo, homosfera. Se ha citado a veces como ejemplo elradón, gas muy pesado y que no se observa en la estratosfera. Sin embargo, el radón es un gas radiactivo, con un periodo de semidesintegración de unos pocos días. Debido a esto, en unas pocas semanas el radón que se produce a ras de suelo ha desaparecido completamente y no le da tiempo a subir en cantidades importantes a la estratosfera. En el caso de los CFCs, como son estables, sí tienen ese tiempo.Los países productores de CFCs están en el hemisferio norte, pero el agujero de ozono está en el hemisferio sur De igual modo que en el punto anterior, los CFCs se reparten de forma homogénea. El agujero de ozono es más notorio en la Antártida debido a temperaturas que se alcanzan allí, lo que permite la formación de nubes estratosféricas.Las fuentes naturales de cloro son mucho más importantes que las humanas El cloro producido por la naturaleza, fundamentalmente en los volcanes, se disuelve fácilmente en las nubes, por lo que llega a la estratosfera en pequeñas cantidades. En cambio los CFCs son químicamente inertes en la troposfera y no se disuelven en agua.La aparición del agujero de ozono se produce en invierno, cuando prácticamente no llega luz solar El ozono es una molécula inestable, en ausencia de luz solar no se genera pero sigue su destrucción, por lo que en invierno su concentración debe disminuir. Eso ya fue observado por G.M.B. Dobson en 1968. El proceso natural marca un incremento de la concentración de ozono en primavera, cuando los rayos del sol permiten su creación. Sin embargo, lo observado en la Antártida es que en primavera la destrucción se acelera, lo que no corresponde al proceso natural.

CONTAMINACIÓN E IMPACTO AMBIENTAL

Por impacto ambiental se entiende el efecto que produce una determinada acción humana sobre el medio ambiente en sus distintos aspectos. El concepto puede extenderse, con poca utilidad, a los efectos de un fenómeno natural catastrófico. Técnicamente, es la alteración de la línea de base (medio ambiente), debido a la acción antrópica o a eventos naturales.

Las acciones humanas, motivadas por la consecución de diversos fines, provocan efectos colaterales sobre el medio natural o social. Mientras los efectos perseguidos suelen ser positivos, al menos para quienes promueven la actuación, los efectos secundarios pueden ser positivos y, más a menudo, negativos. La evaluación de impacto ambiental (EIA) es el análisis de las consecuencias predecibles de la acción; y laDeclaración de Impacto ambiental (DIA) es la comunicación previa, que las leyes ambientales exigen bajo ciertos supuestos, de las consecuencias ambientales predichas por la evaluación.

Clases de impactos ambientales.

 

Impacto Ambiental de la construcción en Canovelles (Barcelona)

La preocupación por los efectos de las acciones humanas surgió en el marco de un movimiento, el conservacionista, en cuyo origen está la preocupación por la naturaleza silvestre, lo que ahora se distingue comomedio natural. Progresivamente esta preocupación se fundió con la igualmente antigua por la salud y el bienestar humanos, afectados a menudo negativamente por el desarrollo económico y urbano; ahora nos referimos a esta dimensión como medio social.

 

Impactos sobre el medio natural 

 

Impacto ambiental a nivel mundial 

La mayor parte de la energía utilizada en los diferentes países proviene delpetróleo y del gas natural. La contaminación de los mares con petróleo es un problema que preocupa desde hace muchos años a los países marítimos, sean o no productores de petróleo, así como a las empresas industriales vinculadas a la explotación y comercio de este producto. Desde entonces, se han tomado enormes previsiones técnicas y legales internacionales para evitar o disminuir la ocurrencia de estos problemas.

Los derrames de petróleo en los mares, ríos y lagos producen contaminación ambiental: daños a la fauna marina y aves, vegetación y aguas. Además, perjudican la pesca y las actividades . dióxido de azufre, daña los pulmones y otras partes del sistema respiratorio. Es un irritante de los ojos y de la piel, e incluso llega a destruir el esmalte de los dientes.

Impacto ambiental al medio natural: Impacto de carácter irreversible provocado por una empresa extractora de yeso en El Cajón del Maipo-Chile, ruta G-25, pre-cordillera de Santiago de Chile.

Otras de las fuentes alternativas de energía desarrollada es la radioactiva que genera muchos desechos o contaminantes radioactivos, provenientes de las reacciones nucleares, o de yacimientos de minerales radioactivos, de las plantas donde se refinan o transforman estos minerales, y de las generadoras de electricidad que funcionan con materia radiactiva. Todavía no se conoce un método para eliminar estos desechos sin riesgo para el hombre.

Otro de los impactos que genera la explotación de los recursos energéticos es la contaminación acústica, pues el ruido producido por la industria, disminuye la capacidad auditiva y puede afectar el sistema circulatorio, y aún, cuando los trabajadores de estas industrias ya están acostumbrados al ruido por escucharlos en forma prolongada, les genera daños mentales.

La minería y el procesamiento de minerales a menudo producen impactos ambientales negativos sobre el aire, suelos, aguas, cultivos, flora y fauna, y salud humana. Además pueden impactar, tanto positiva como negativamente, en varios aspectos de la economía local, tales como el turismo, la radicación de nuevas poblaciones, la inflación, etc. En el pasado, las empresas no siempre fueron obligadas a remediar los impactos de estos recursos. Como resultado, mucho de los costos de limpieza han debido ser subsidiados por los contribuyentes y los ciudadanos locales. Este papel presenta los costos representativos de numerosas actividades de remediación. Con frecuencia, el ítem más costoso a largo plazo es el tratamiento del agua. El uso de garantías financieras o seguros ambientales puede asegurar que el que contamina, paga por la mayoría de los costos.

Otra cuestión a tener en cuenta con respecto al impacto medioambiental de la obtención y consumo energéticos es la emisión de gases de efecto invernadero, como el CO2, que están provocando el Cambio Climático. Se trata no sólo de las emisiones producidas por la combustión durante el consumo -como por ejemplo al quemar gasolina al utilizar un coche para el trasporte de personas y mercancías-, sino también de la obtención de energía en centrales térmicas -en las que se genera electricidad por la combustión fundamentalmente de carbón. El uso cada vez más generalizado de energías renovables sustitutivas es la mejor forma de reducir este impacto negativo.

Impactos ambientales de la guerra y el uso bélico del uranio empobrecido 

Ni los gobiernos ni las fuerzas armadas han dimensionado los impactos humanitarios, ambientales y económicos que están generando las guerras modernas en forma inmediata y en el largo plazo. Las guerras recientes no sólo han generado mayor cantidad de víctimas civiles, sino además, crecientes e irreversibles impactos ambientales.

Cuando cada bomba explota, genera temperaturas sobre 1.000ºC, lo que junto a la fuerza explosiva no sólo aniquila infraestructura, flora, fauna y personas, sino destruye la estructura y composición de los suelos, los que demoran cientos y miles de años en regenerarse. A los terribles daños de las bombas, explosiones e incendios que le siguen, están los impactos de las explosiones de los "objetivos estratégicos" tales como los complejos industriales. En la reciente guerra de los Balcanes, el bombardeo de una fábrica de plásticos y otra de amoníaco lanzó a la atmósfera dioxinas y tóxicos como cloro, bicloroetileno, cloruro de vinilo y otros de impactos directos sobre la vida humana; pero además con impactos residuales en el ambiente.

En el caso de Irak hay que considerar los impactos del derramamiento y la quema intencional de petróleo. El incendio de los pozos petroleros está generando grave contaminación atmosférica, terrestre, de aguas superficiales y subterráneas.

Los impactos sobre ecosistemas y la salud de la población son gravísimos por los niveles letales de dióxido de carbono, azufre e hidrocarburos orgánicos volátiles, por sólo nombrar algunos. Los incendios en 500 pozos de petróleo durante la anterior guerra del Golfo lanzaron a la atmósfera 3 millones de toneladas de humo contaminante. La nube cubrió 100 millones de kilómetros cuadrados, afectando el territorio de 4 países, lo cual provocó enfermedades respiratorias a millones de personas. Los derrames mataron a más de 30.000 aves marinas, contaminaron 20% de los manglares y la actividad pesquera se arruinó.

Según el World Resources Institute, los residuos tóxicos de la guerra del Golfo afectarán a la industria pesquera local "por más de 100 años" a lo que debemos sumar los impactos de la guerra actual y a los ecosistemas agrícolas y las cuencas de los ríos Tigris y Eúfrates entre otros, de los que dependen casi todas las actividades económicas del país.

Finalmente se espera que Estados Unidos, tal como en la guerra del Golfo, vuelva a usar municiones con "uranio empobrecido" (depleted uranium-DU) en aviones, tanques, cañones antitanques y minas terrestres por su densidad y capacidad de penetración. Estas municiones explotan, arden al atravesar el blanco aumentando su poder destructivo y generan gran dispersión de óxido de uranio a la atmósfera, contaminando químicamente a los seres humanos y al ambiente. Diversos informes señalan que la contaminación química y radiactiva del uranio empobrecido en Irak es responsable del gran aumento de abortos, malformaciones genéticas, leucemia infantil y cáncer en el Sur de este país; justamente cerca de la recién bombardeada ciudad de Basora, donde en 1991 se utilizó la mayor cantidad de municiones del letal elemento.

 

Impactos sobre el medio social

Los impactos sobre el medio social afectan a distintas dimensiones de la existencia humana. Se pueden distinguir:

  • Efectos económicos. Aunque los efectos económicos de las acciones suelen ser positivos desde el punto de vista de quienes los promueven, pueden llevar aparejadas consecuencias negativas, que pueden llegar a ser predominantes sobre segmentos de población desprovistos de influencia.
  • Efectos socioculturales. Alteraciones de los esquemas previos de relaciones sociales y de los valores, que vuelven obsoletas las instituciones previamente existentes. El desarrollo turístico de regiones subdesarrolladas es ejemplar en este sentido. En algunos casos, en países donde las instituciones políticas son débiles o corruptas, el primer paso de los promotores de una iniciativa económica es la destrucción sistemática de las instituciones locales, por la introducción del alcoholismo o la creación artificiosa de la dependencia económica, por ejemplo distribuyendo alimentos hasta provocar el abandono de los campos.
Los efectos culturales suelen ser negativos, por ejemplo la destrucción de yacimientos arqueológicos por las obras públicas, o la inmersión de monumentos y otros bienes culturales por los embalses. Por el contrario, un efecto positivo sería el hallazgo de restos arqueológicos o paleontológicos durante las excavaciones y los movimientos de tierra que se realizan en determinadas obras. Un claro ejemplo lo constituye el yacimiento de Atapuerca (Burgos, España) que se puso al descubierto gracias a las trincheras que se excavaban durante las obras del ferrocarril.
  • Efectos tecnológicos. Innovaciones económicas pueden forzar cambios técnicos. Así, por ejemplo, uno de los efectos de la expansión de laagricultura industrial es la pérdida de saberes tradicionales, tanto como de estirpes (razas y cultivares), y la dependencia respecto a “inputs” industriales y agentes de comercialización y distribución.
  • Efectos sobre la salud. En la Inglaterra de los siglos XVIII y XIX, la migración de la población del campo a las ciudades, activamente promovida por cambios legales, condujo a condiciones de existencia infrahumanas y expectativas de vida muy bajas. El desarrollo de normas urbanísticas y de salud laboral, así como la evolución de las relaciones de poder en un sentido menos desfavorable para los pobres, ha moderado esta situación sin resolver todos los problemas. La contaminación atmosférica, tanto la química como la acústica, siguen siendo una causa mayor de morbilidad. Un ejemplo extremo de las dimensiones que pueden alcanzar los efectos lo proporciona la contaminación del agua subterránea en Bangladesh, donde unos cien millones de personas sufren irremediablemente de intoxicación crónica y grave por arsénico, por un efecto no predicho, e impredecible, de la expansión de los regadíos.

 

Impactos sobre el sector productivo 

La degradación del medio ambiente incide en la competitividad del sector productivo a través de varias vertientes, entre otras: (I) falta de calidad intrínseca a lo largo de la cadena de producción; (II) mayores costos derivados de la necesidad de incurrir en acciones de remediación de ambientes contaminados; y (III) efectos sobre la productividad laboral derivados de la calidad del medioambiente. También afectan la competitividad la inestabilidad del marco regulatorio en materia ambiental y la poca fiscalización por parte de las autoridades, lo cual conduce a incertidumbre jurídica y técnica. Esto puede influir en costos adicionales que deben incurrir las empresas para demostrar que los productos o servicios son limpios o generados amigablemente con el medio ambiente.

 

Aspecto técnico y aspecto legal 

El término impacto ambiental se utiliza en dos campos diferenciados, aunque relacionados entre sí: el ámbito científico-técnico y el jurídico-administrativo. El primero ha dado lugar al desarrollo de metodologías para la identificación y la valoración de los impactos ambientales, incluidas en el proceso que se conoce como Evaluación de Impacto Ambiental (EIA); el segundo ha producido toda una serie de normas y leyes que obligan a la declaración de Impacto ambiental y ofrecen la oportunidad, no siempre aprovechada, de que un determinado proyecto pueda ser modificado o rechazado debido a sus consecuencias ambientales (véase Proyecto técnico). Este rechazo o modificación se produce a lo largo del procedimiento administrativo de la evaluación de impacto. Gracias a las evaluaciones de impacto, se estudian y predicen algunas de las consecuencias ambientales, esto es, los impactos que ocasiona una determinada acción, permitiendo evitarlas, atenuarlas o compensarlas.

 

Clasificación de los impactos 

Los impactos ambientales pueden ser clasificados por su efecto en el tiempo, en 4 grupos principales :

  • I.A Irreversible: Es aquel impacto cuya trascendencia en el medio, es de tal magnitud que es imposible revertirlo a su línea de base original. Ejemplo: Minerales a tajo abierto.
  • I.A Temporal: Es aquel impacto cuya magnitud no genera mayores consecuencias y permite al medio recuperarse en el corto plazo hacia su línea de base original.
  • I.A Reversible: El medio puede recuperarse a través del tiempo, ya sea a corto, mediano o largo plazo, no necesariamente restaurándose a la línea de base original.
  • I.A Persistente: Las acciones o sucesos practicados al medio ambiente son de influencia a largo plazo, y extensibles a través del tiempo. Ejemplo: Derrame o emanaciones de ciertos químicos peligrosos sobre algún biotopo.

 

Evaluación de Impacto Ambiental 

Evaluación de Impacto Ambiental (EIA),es el proceso formal empleado para predecir las consecuencias ambientales de una propuesta o decisión legislativa, la implantación de políticas y programas o la puesta en marcha de proyectos de desarrollo.


La Evaluación de Impacto Ambiental se introdujo por primera vez en Estados Unidos en 1969 como requisito de la National Environmental Policy Act (ley nacional de políticas sobre el medio ambiente, comúnmente conocida como NEPA). Desde entonces, un creciente número de países (incluida la Unión Europea) han adoptado la EIA, aprobando leyes y creando organismos para garantizar su implantación.

Una Evaluación de Impacto Ambiental suele comprender una serie de pasos:

1) Un examen previo, para decidir si un proyecto requiere un estudio de impacto y hasta qué nivel de detalle.

2) Un estudio preliminar, que sirve para identificar los impactos clave y su magnitud, significado e importancia.

3) Una determinación de su alcance, para garantizar que la EIA se centre en cuestiones clave y determinar dónde es necesaria una información más detallada.

4) El estudio en sí, consistente en meticulosas investigaciones para predecir y/o evaluar el impacto, y la propuesta de medidas preventivas, protectoras y correctoras necesarias para eliminar o disminuir los efectos de la actividad en cuestión.

Tipos de reacciones según la energía tranferida en el proceso.

Cada reacción química se produce a una temperatura concreta, que es la necesaria para poder romper los enlaces de los reactivos y formar enlaces.

Según la energía transferida en el proceso, las reacciones pueden ser de dos tipos: exotérmicas y endotérmicas.

 

Reacción exotérmica

Se denomina reacción exotérmica a cualquier reacción química que desprende calor, es decir con una variación negativa de entalpía.

Se da principalmente en las reacciones de oxidación. Cuando ésta es intensa puede dar lugar al fuego. Cuando reaccionan entre sí dos átomos de hidrógeno para formar una molécula, el proceso es exotérmico.

H· + H·→ H:H ΔH=-104 kcal/mol

Son cambios exotérmicos el paso de gas a líquido (condensación) y de líquido a sólido (solidificación).

La reacción contraria se denomina endotérmica.

Un ejemplo de reacción exotérmica es la combustión.

Otro ejemplo de una reacción exotérmica podría ser, al unir hidróxido de sodio junto con azul de metileno y ácido acético igualmente ligado con azul de metileno. En esta reacción se podrá observar como al ir uniendo poco a poco la dos disoluciones irá creándose una especie de humo y poco a poco el vaso de precipitados se va poniendo algo caliente.Reacción endotérmica

REACCIÓN ENDOTÉRMICA.

Se denomina reacción endotérmica a cualquier reacción química que absorbe calor.

Si hablamos de entalpía (H), una reacción endotérmica es aquella que tiene un incremento de entalpía o ΔH positivo, es decir, aquella reacción en donde la entalpía de los reactivos es menor que la de los productos.

Las reacciones endotérmicas, sobre todo las del amoníaco impulsaron una próspera industria de generación de hielo a principios del siglo XIX.

Actualmente el frío industrial se genera con electricidad en máquinas frigoríficas.

Es importante decir que las reacciones endotérmicas al absorber calor pueden ser útiles y prácticas en algunos casos, como por ejemplo, el querer enfriar un lugar.

En las reacciones endotérmicas los productos tienen más energía que los reactivos