Gabriel
Registrado: 11 Ago 2005 Mensajes: 542
|
Publicado: Lun Oct 16, 2017 1:20 am Asunto: TESIS INGENIERIL BÁSICA (NIVEL: UNIVERSITARIO) |
|
|
15/09/2017
Autor: Prof. Gabriel Schwarz
Segunda Edición
INGENIERIA AERONAUTICA
Desde que se cree que el universo no tiene ni centro ni limite, no existe un sistema de referencia particular con la que marcar un punto. El universo puede ser dimensionado de diversas formas, hasta se podría hablar de un multiverso; es decir, la existencia de múltiples universos además del que todos conocemos. Aunque "a grandes rasgos" cuando hablamos de maquinarias, automóviles, naves marinas o aeronaves, el sistema de referencia lo marcaría su estructura total.
Existe la clasificación del cosmólogo Max Tegmark, que proporciona un ordenamiento para los posibles universos existentes más allá del nuestro. Básicamente tenemos cuatro formas; o hablar de un universo infinito con múltiples universos; o hablar de un universo finito pero en expansión con sus múltiples universos; o hablar de universos paralelos; es decir, de universos con otro espacio y tiempo; y quizás hasta con leyes matemáticas y físicas diferentes. Por último, podríamos hablar de un sentido filosófico matemático de esta idea; es decir, que todo estructura matemática podría considerarse un universo, rescindiendo fuera del espacio y tiempo; basado todo en abstracciones.Tan es así, que el mismísimo zohar en genesis, de acuerdo a la exegesis Sulam, comienza manifestando así; [ En su primera voluntad por crear los multiversos; extrajo energía superior, que al emerger de lo hermético y oculto se produjo vapor en su erupción.]. Como se puede apreciar, el concepto de multiverso también tiene un trasfondo místico, esotérico y religioso.
Aclaración: la exegesis Sulam sobre el zohar, fue escrita por el Kabalista Polaco, Yehuda Leib HaLevi Ashlag, hacia los años 1945-1953, en plena posguerra mundial.
Bien, una estructura es la unión de varias piezas o elementos que forman un todo. La estructura carece de movimiento interno, no así, la maquina que su propósito es transmitir fuerza de potencia, ya sea mediante un mecanismo o movimiento o no; tal puede ser el caso de una maquina eléctrica estática como un transformador. Ya desde el antiguo Egipto, Persia, Babilonia, India, etc.; existió la alquimia; que es la protociencia que busca purificar mediante el fuego o calor los diferentes elementos de la naturaleza, y hasta quizás este sea el origen de la famosa purificación por fuego o calor de metales incluso del famoso pueblo hebreo en sus diversas celebraciones.
Pero la alquimia no termina allí, ya fue recién en el siglo XVIII, cuando aparecieron los primeros hornos metalúrgicos para la unión de piezas en la fabricación de maquinas tras la revolución industrial. Es ahí, cuando comienza el producto manufacturado. Si querríamos adentrarnos en el mundo de las estructuras aeronáuticas tendríamos que remontarnos a principio del siglo XX; cuando las primeras estructuras eran los fuselajes reticulados, aunque luego fueron los monocascos, monocascos reforzados; y por ultimo; los semimonocascos. A muy grandes rasgos, la base de toda estructura aeronáutica como naval, es no perder la ortogonalidad de las vigas estructurales. Claro que en ingeniería aeronáutica se hablará de largueros, costillas, larguerillos, vigas transversales, vigas longitudinales, revestimiento, etc.; por supuesto que existe la ferretería del avión, que refiere a elementos complementarios al estructural como los pernos, tornillos de ajuste, etc.
Básicamente, una aeronave posee siete sistemas; el hidráulico, el neumático, el eléctrico, el de combustible, el de oxigeno, el de aire acondicionado y el de presurización. Más allá que los sistemas hidráulicos, se basan en los famosos circuitos hidráulicos, los sistemas neumáticos en los famosos circuitos neumáticos; es decir, de aire comprimido, ya sea mediante un compresor, bomba, etc., los sistemas eléctricos en circuitos eléctricos; toda esa información es de muy fácil acceso, para todo estudiante de ingeniería; por lo que me pareció interesante tocar el tema del sistema de presurización.
Ya desde la segunda guerra mundial se hacían pruebas de presurización para investigar cuan alto podría volar un piloto de un caza, de un bombardero o de un cazabombardero. Pero ¿qué es la presurización de una aeronave?. La atmosfera es un gas compuesto por distintos elementos, entre ellos, nitrógeno, oxigeno, dióxido de carbono, ozono (este último protege a la tierra de los rayos ultravioletas). La atmosfera llega a una altura de los 10.000 Km; es decir 10.000.000 metros, que es el límite por donde estos gases son atraídos por la fuerza gravitatoria de la tierra. Es decir, la ingravidez comienza desde esa altura; luego hablaríamos solo de microgravidez.
Esto ya lo manifiestó el científico alemán Hubertus Strughold en su libro compendio de medicina espacial - volumen 1; editado en el año 1977 (idioma ingles), que se puede descargar de Internet. Aunque estas investigaciones pertenecen a décadas anteriores.
Sin entrar en cuestionamientos éticos con este científico alemán, cuestionado por haber realizado experimentos bajo cámaras de presión con prisioneros en la segunda guerra mundial junto al cientifico Siegfried Ruff.
Básicamente, desde los 2 Km hasta los 7,5 Km de altura, que es donde se encuentra la zona de muerte; es decir, que el ser humano moriría por hipoxia, a medida que crece la altura disminuye la presión, la densidad y la temperatura, por lo que haría imposible que un humano respirara de forma normal.
Es por esto, que los aviones son sellados mediante diferentes compuestos como polisulfatos curado con cromato, politioeter curado con epoxicos, etc.; para lograr un fuselaje totalmente hermético; luego solo sería cuestión de bombear aire comprimido en cabina para llegar a una presión normal, apta para el ser humano. Volviendo a estructuras aeronáuticas; no deberíamos olvidarnos de los materiales usados en esta disciplina; desde los primeros aviones de madera, pasando por aluminio, acero hasta llegar a materiales compuestos invisibles al radar, como podría ser un hibrido de fibra de carbono con resina epoxica.
Otro tema no menor, sería comentar para el lector en general, el por qué los aviones vuelan. Esto se dá por múltiples efectos y causas; entre ellos, el efecto Venturi; que postula, que cuando un fluido es obligado a circular por una zona de menor sección, la velocidad de sus moléculas, aumenta. Esto, sumado al efecto Bernoulli, que manifiesta que a mayor presión, menor velocidad, y a menor presión, mayor velocidad; conlleva a que la diferencia existente por su aerodinámica, entre la baja presión del extradós del ala con respecto al intradós del ala, genere la fuerza de sustentación. Ademas entre las causas, se encuentra el efecto Coanda; que postula que un fluido en circulación tiende a adherirse a la superficie del conducto sólido sobre el que circula. Claro que también existe el efecto Magnus. Pero ¿cual es la fuerza más importante que permite que los aviones vuelen? La respuesta es debido a la ley de acción y reacción; y al torque; es decir, el momento de fuerza. Espero que haya quedado claro el asunto.
Desde los hermanos Wright hasta hoy día, ha pasado mucho tiempo, y nadie puede saber que nos deparará el futuro.
INGENIERÍA ELÉCTRICA
Hablar de la historia energética Argentina, suele ser un tópico recurrente dentro del campo de la ingeniería eléctrica Argentina. Por varias décadas el monopolio en el suministro de energía eléctrica Argentina estaba constituido por dos grandes empresas; la empresa CADE, de origen Alemán y la famosa Italo Argentina de origen Italiano-Suiza. En la época de Perón se crea SEGBA y comienza una política estatizadora que dió origen al desarrollo industrial nacional de forma abrupta. En el año 1958 la empresa CADE, se fusiona a SEGBA, y en el año 1979; también lo hace la empresa Italo Argentina.
En el periodo del ex presidente Menem, se privatiza SEGBA a cuatro empresas generadoras de energía eléctrica. denominadas; CENTRAL PUERTO S.A, CENTRAL COSTANERA S.A, CENTRAL PEDRO DE MENDOZA S.A y CENTRAL DOCK SUD S.A, también se privatiza a una empresa transmisora, denominada TRANSENER; y a tres distribuidoras, llamadas hasta la actualidad, EDESUR, EDENOR y EDELAP.
El sistema eléctrico se divide en tres etapas; generación, transmisión y distribución. Básicamente una central eléctrica se encarga de generar energía eléctrica para su posterior suministro. Las centrales eléctricas pueden ser de tipo térmicas (carbón, gas, diesel, nucleares o nucleoeléctricas, que se las considera un tipo de planta eléctrica de tipo térmica, etc.) o también pueden ser de tipo hidráulicas, esta última, denominada hidroeléctrica. Si bien existen otros medios para generar energía eléctrica, ya sea de tipo eólica, solar, etc., las centrales termoeléctricas son las más utilizadas. Una planta termoeléctrica utiliza un medio de combustión para calentar las calderas de agua o gas, para luego mediante tuberías, expulsar vapor o gas, para generar presión y movilizar las turbinas que sujetas al rotor imantado, logran generar campo magnético variable, y de ahí, inducir tensión en los bobinados externos; es decir, los bobinados del estator. y de está forma, producir energía.
Las centrales logran generar normalmente hasta 36 kilovoltios, pero está tensión es muy baja para transportarla hasta zonas urbanas, debido a esto, se usan transformadores, denominados elevadores, para transmitir esta energía por largas distancias. Acá en Argentina, se suele elevar la tensión a 500 kilovoltios. Esta línea denominada; línea de transmisión, suele llamarse línea de alta tensión y es la que se transmite mediante torres o estructuras de acero. Luego se llega a la línea de mediana y baja tensión, para el suministro de industrias, residencias y domicilios finales; denominada, esta ultima, línea de distribución; pero para tal objetivo, se reduce la tensión hasta llegar a los 220 voltios mediante transformadores, denominados reductores.
La corriente eléctrica que llega a todo domicilio, mediante la linea de distribución, es de tipo trifásica; es decir, de cuatro hilos, tres fase o vivos, de 220 voltios cada uno; y el cuarto hilo, el neutro. Es importante aclarar, que la distribución del cableado dentro del domicilio debe ser lo más simétrica y equilibrada posible; para evitar por efecto joule, recalentado de cables y/o una posible subtensión; es decir, una baja tensión. Otro aspecto importante que se debe aclarar es, que la corriente que llega a cada domicilio no vuelve a la central eléctrica, sino es transformada en forma de trabajo cuando es utilizada por un dispositivo, que es conectado al tomacorrientes del hogar, o por ejemplo, cuando se enciende alguna luminaria; el resto, se pierde en forma de calor.
En la actualidad la mayoría de la generación eléctrica se realiza casi exclusivamente con alternadores trifásicos de 50hz o 60hz. Acá en Argentina de 50hz. Otro aspecto a remarcar, es el tipo de tensión que un país pueda utilizar, ya sea de 110 voltios o de 220 voltios. La tensión de 110 voltios es más segura pero su infraestructura es más costosa. Un ejemplo simple lo puede dar la ecuación de potencia, que dice; P=VxI. Donde, P es potencia, V es el voltaje e I es la intensidad de corriente. Si pasamos el voltaje hacia el otro miembro, nos queda que potencia dividido el voltaje, es igual a intensidad de corriente. En otras palabras cuando el voltaje, que se encuentra en el denominador, es más bajo, ejemplo, 110 voltios, la intensidad de corriente debe ser más alta. Es por eso, que en países donde la tensión es de 110 voltios, los cables de cobre deben ser más gruesos, por tanto, más costosos.
El transformador es una maquina eléctrica estática; posee comúnmente dos devanados, uno primario y otro secundario alrededor de un núcleo ferromagnético, que dependiendo cual de los dos devanados posea mayores espiras, elevará o reducirá la tensión de corriente alterna. el primer devanado recibirá tensión eléctrica y el segundo devanado aunque no este electricamente conectado al primero; al ser que la corriente que fluye en el primer devanado es variante, genera un campo magnético alrededor del núcleo ferromagnético variable, eso genera tensión en el segundo devanado, y por consiguiente reducirá o elevara la tensión dependiendo si supera en espiras o no al primer devanado, como hice mención anteriormente; y este es el famoso elevador y reductor utilizado en la transmisión y distribución de energía eléctrica respectivamente.
LA VERDADERA CRISIS ENERGETICA ARGENTINA
Escribiendo brevemente, el verdadero problema energético Argentino es, que por ejemplo, tenemos una experiencia de más de 100 años en el área petrolera, pero no se es eficiente en el uso de los 4 millones de Km^2 de mar Argentino para explotarla; tampoco se usa la energía eólica de forma apropiada, ya que puede ser bien explotada principalmente en el sur Argentino donde el clima es muy favorable para este tipo de medio energético. Otro tema no menor es, que Argentina posee los bosques más ricos del mundo; sin embargo, no se utiliza el carbón como medio de combustión primario de forma amplia. Si bien es cierto que el carbón suele ser poco viable como medio de combustión, debido a sus factores contaminantes, en la practica no suele ser un factor tomado tan en cuenta. Con lo referente a la energía hidroeléctrica, Argentina solo usa un 50 % de los recursos que pudiera utilizar, claro que crear una planta hidroeléctrica no es algo que lleve unos poco días, ya que primero se deben tomar recaudos que suelen tomar años y décadas. como podría ser, el estudio hidrológico del lago o río, donde se planea construirla.
EL DESAFÍO FUTURO
Otro aspecto contundente, es el almacenamiento de energía, ya que la electricidad es muy difícil almacenarla, y para obtener energía eléctrica, se requiere de plantas eléctricas que estén funcionando de forma continua. De alguna manera, ese es el verdadero desafío actual y futuro; buscar métodos viables para poder almacenar energía de forma estable.
INGENIERÍA QUÍMICA
Una de las operaciones de la microbiología podría ser el cultivo de microorganismos para su siguiente uso. Los requisitos básicos necesarios para el cultivo de microorganismos van a depender del tipo de microorganismo que se desee cultivar. Por supuesto, que para que exista multiplicación de los microorganismos se los deberá alimentar con nutrientes, pero factores de temperatura, humedad, ph adecuado, presencia o ausencia de oxigeno y de la luz ambiental, van a jugar un papel crucial en el asunto. Para esto, es necesario la utilización del biorreactor, que es un recipiente o sistema que permite generar las condiciones necesarias para que se establezca un ambiente biológicamente activo.
La primera ley de Monod relaciona las nutrientes con el crecimiento del microorganismo. Es decir, que cuando mejor se lo alimente al microorganismo así crecerá y se multiplicará. Por ejemplo, la escherichia coli (leease esqueriquia coli) es una bacteria que se encuentra en el tracto intestinal del los seres vivos, entre ellos los humanos. El cuerpo necesita de estas bacterias para el proceso digestivo y además son las que se encargan de producir las vitaminas B y K. Sin embargo, si se encuentran en exceso o se extienden a lugares no pertinentes del cuerpo, podrían provocar diferentes tipos de patologías; entre ellas, problemas gastrointestinales, urinarios, nerviosos, etc. Es una bacteria muy utilizada en experimentación y biología genética molecular.
Hagamos un simple ejemplo; supongamos que deseamos cultivar la bacteria escherichia coli, y aceptamos que escherichia coli pesa 1 picogramo (10^-15 kg); y se reproducen cada 20 minutos; en un cultivo exponencial ideal iniciado con una sola célula bacteriana de este tipo; en tan solo 44 horas estos microorganismos podrían igualar la masa de la tierra, que es 6x10^24; la masa solar en 50 horas y la masa de la via láctia 63 horas. Entonces nace una gran pregunta ¿por qué no sucede esto en la vida real?. Bueno, la respuesta es muy simple; este tipo de bacterias se las suele cultivar de forma controlada; en cultivos discontinuos o de tipo batch, donde las nutrientes son limitadas, y se inocula el microorganismo en recipiente cerrado. Por tanto, su multiplicación es controlada.
Claro, que así como es más complejo generar una fisión nuclear controlada que una fisión nuclear descontrolada, esta ultima para el uso de armas nucleares; lo mismo en lo referente a cultivos de microbios o microorganismos. Es decir, es mucho más sencillo realizar un cultivo de microorganismos de forma descontrolada que un cultivo de forma controlada.
Otro tema, no menor, es el protocolo de Ginebra (Suiza) de 1925 (no confundir con convención de ginebra, que refiere a otro tema) que trata sobre la prohibición del uso de armas químicas y biológicas para fines bélicos, aunque este protocolo, no manifiesta nada acerca de su producción, compraventa y almacenamiento. No obstante, en 1972 se firma la convención de armas biológicas; y en 1992 se firma la convención de armas químicas. Es decir, vienen como complemento al protocolo de Ginebra para aplicar la prohibición de su producción, compraventa y almacenamiento, que no sea para fines de cultivos industriales e investigación científica para uso pacífico.
Existen varias formas de representar el tiempo de reproducción de un microorganismo; dependiendo el tipo de microorganismo, ya sea un crecimiento exponencial o un crecimiento aritmético, entre otros. La curva de crecimiento discontinuo se divide en cuatro fases; fase de latencia, fase exponencial, fase estacionaria y fase de muerte. Aunque el cultivo discontinuo no es el único, ya que existe también el cultivo continuo, donde el microorganismo crece a la velocidad máxima que le permita la condición. Otro tipo de cultivo es el cultivo discontinuo alimentado, que se usa por ejemplo, en la producción de antibióticos y mutantes auxótrofos. Por último, tenemos el cultivo secuencial en reactor discontinuo.
Para el cultivo continuo existen varios tipos de sistemas; entre ellos; los quimiostatos, los turbidostatos y el reactor de flujo de tapón. La velocidad de crecimiento de un microorganismo celular se puede representar como el cambio de numero de células en función del tiempo o como el crecimiento de masa en función del tiempo, para esto, se usa su forma derivativa. Es decir; dN/dT=uN donde dN/dT es el numero de células en función del tiempo, y “u” es la velocidad especifica de crecimiento. Por otra parte, dX/dT=uX donde dX/dT es el crecimiento de la masa en función del tiempo; y “u” nuevamente la velocidad especifica del crecimiento.
Ante todo, es importante diferenciar entre una reacción química y una reacción nuclear. Una reacción nuclear es una reacción en la que se altera la configuración electrónica y el núcleo de un átomo; ya sea mediante fisión nuclear o fusión nuclear. En cambio, una reacción química es un proceso químico en el cual dos o más sustancias o bien llamadas reactivos o reactantes, se transforman en producto.
Bien, para que ocurra tal reacción química, es necesario el uso de un equipo capaz de contener a dichos reactivos, mezclarlos, y a través de un proceso, generar el producto; ese equipo, es denominado reactor. Un reactor es un tanque donde se cargan reactivos para generar productos finales. En el diseño de reactores se debe tener en cuenta aspectos de diferentes campos disciplinarios, entre ellos; termodinámica, cinética química, mecánica de fluidos, etc. La cinética química estudia la velocidad en que ocurre una reacción química. Su representación es la siguiente: –rA (con signo negativo) es la velocidad en que desaparece una especie A. rB (sin signo negativo) es la velocidad en que se genera una especie B. Los datos cinematicos se pueden representar en sus dos formas; la integral o la diferencial. Esta ultima representada en forma de ecuación diferencial; útil para la generación de modelos matemáticos para los reactores. En este caso, el programa “matlab”, y su simulador “simulink”; también pueden ser útiles para optimizar los modelados, aunque estos no fueron diseñados específicamente para ingeniería química.
Las reacciones químicas pueden ser por descomposición. Es decir, que una molécula reaccione y se descomponga en dos. Otra forma puede ser por combinación. Es decir, que dos o más moléculas se unan o combinen para formar otro tipo de molécula; y por último, por isomeración. Es decir, cuando una molécula cambia su configuración espacial para generar otra molécula con propiedades químicas diferentes.
Básicamente, los reactores pueden ser homogéneos (los reactantes son o solo líquidos o solo gaseosos; es decir, de una sola fase) o heterogéneos (los reactantes pueden tener varias fases; es decir, algunos líquidos y otros gases). También se los puede clasificar como; continuos (trabajan de forma continua), discontinuos (trabajan de forma discontinua) y semicontinuos (una fase del reactor trabaja de forma continua y otra de forma discontinua).
Tipos de reactores:
1- REACTORES DE TANQUE AGITADO DISCONTINUOS (BATCH)
2- REACTORES DE TANQUE AGITADO SEMI-CONTINUOS (SEMI-BATCH)
3- REACTORES DE TANQUE AGITADO CONTINUOS (CSTR)
4- REACTORES TUBULARES DE FLUJO PISTÓN (PFR, TFR)
5- REACTORES CATALÍTICOS (DE LECHO FLUIDIZADO O EMPACADO CONOCIDO COMO PBR, DE LECHO FIJO, DE LECHO PERCOLADOR Y DE LECHADA O SUSPENSIÓN)
6- REACTORES NO IDEALES
Por ejemplo, las centrales termoeléctricas de carbón, que usan al carbón como medio de combustión para calentar a las calderas de agua, poseen reactores químicos, para purificar el monóxido de carbono que desprende el quemado de carbón. el vapor emitido por la caldera de agua atravesando tuberias genera, mediante presión, la movilización de las turbinas de vapor para la generación de electricidad. Volviendo al reactor, en este caso, en el reactor catalítico se podría introducir amoniaco para generar oxido de nitrógeno, y mediante catalización, generar fluido no contaminante en forma de vapor de agua y nitrógeno, que se desprenderían por las chimeneas de la planta eléctrica; no así, las torres hiperbólicas de las plantas eléctricas, que tiene como misión, expulsar el vapor condensado hacia la atmósfera. Esto se produce una vez que el vapor atraviesa la turbina y cumple su objetivo, donde es transformado nuevamente en fluido liquido mediante un condensador, para luego mediante bombeo ingresar otra vez en la caldera y volver a su ciclo de trabajo, que es la producción de electricidad.
INGENIERÍA NAVAL
No quiero caer en especulaciones, pero la biblia puede servirnos como una documentación interesante sobre cómo eran los principios de la navegación de acuerdo a la cultura hebrea.
Los altos conocimientos en construcción naval que debiera poseer el personaje bíblico Noé - más de 2000 años antes de la era común - nos dan una pauta sobre este asunto. Aunque hay que destacar que la navegación, según datos arqueológicos, data de más de 3000 años antes de la era común en el antiguo Egipto.
La biblia menciona que las medidas del arca eran de 300 codos de longitud (180 metros de eslora), 50 codos de ancho (30 metros de manga) y 30 codos de altura (18 metros de puntal).
El casco del arca debía ser calafateado con brea, tanto en su interior como en su exterior. Cabe destacar, que está práctica aún perdura en la actualidad, aunque muchas veces se usan sintéticos como el thiocol u otros. El arca poseía escotilla y estaba formada por tres bodegas en su interior en sus tres niveles de altura.
Si el arca hubiera sido construida con cubierta, por su tamaño, podría haber sido catalogada como un buque; ya que poseía flotabilidad, solidez, estanqueidad y estabilidad, aunque hay que reconocer que no poseía navegabilidad, me refiero a velocidad; recordando que cubierta es la estructura superior, que cierra la viga-casco, pero el hecho que la biblia defina al arca con el vocablo hebreo “TEBÁ” que significa "CAJA", nos dan una pauta que no poseía cubierta.
Otro aspecto a remarcar es, que la biblia no hace mención del concepto de proa, popa, estribor y babor; ya que para utilizar tales vocablos la nave debe poseer los elementos y la estructura adecuada, Sin embargo, al parecer, debiera ser una nave marina muy sofisticada para aquel tiempo, ya que pudo soportar las fuerzas hidrostáticas, hidrodinámicas y la presión de los vientos, tanto en el momento del diluvio bíblico como posteriormente, bajo aguas tranquilas.
Otro aspecto a mencionar es, sobre la arquitectura del casco del arca bíblica, ya que si bien era una nave de madera, como menciona la biblia, seguramente estaba formada por sus quillas, sobrequillas, varengas, cuadernas, etc. Claro, que hoy día todos conocemos la teoría moderna de calcula en buque, como las formulas de Euler, las formulas de Rankine-Gordon, las teorias de Moncrieff, las formulas de Lilly, las formulas de Simpson, las formulas de johns, las formulas Bruhn, las formulas Roop, etc. Si bien se podría usar el matlab junto a simulink para los modelados matemáticos, ciertos módulos entrarían en dificultad de diseño, ya que matlab no fue diseñado para ingeniería naval específicamente.
Es muy difícil aventurarnos sobre el tema, pero sin caer en cuadros puramente hipotéticos, seguramente el Noé bíblico fue un innovador para su época en lo que respecta a naves marinas, ya que si bien había sido asesorado por el Dios bíblico, su ingenio e imaginación nos revelan el poder de abstracción que debiera poseer este personaje..
INGENIERÍA CIVIL
Comenzaremos con conceptos básicos. Es muy conocido en el ámbito popular, que el proceso de construcción del hormigón armado comienza con la excavación de la superficie, luego la puesta de concreto con su fraguado y secado; posteriormente la puesta de vigas de acero en forma perpendicular junto al encofrado; la puesta de concreto con su fraguado y secado; para posteriormente llenar todo el terreno de tierra y hacer la prueba CBR, y luego continuar con el concreto y el hormigón armado pertinente junto a las losas de hormigón armado para cada piso, etc.
Ante todo, se debe comenzar hablando sobre el hormigón. El hormigón armado se puede considerar más que un material compuesto, una estructura. No así, el hormigón en masa, que es concreto sin la armadura de acero, que solo soporta principalmente la fuerza de compresión, que sí se lo puede denominar un material compuesto. Los materiales están formados por una mezcla de dos o más componentes unidos químicamente.
El hormigón que todos conocemos en la construcción, está formado por el aglomerado de cemento; generalmente cemento portland, agua y áridos (arena, grava y gravilla).
Las solicitaciones en los materiales; es decir, las fuerzas a las que puede estar sometido un material son cinco; fuerza de tracción (estiramiento), fuerza de compresión, fuerza de flexión, fuerza de torsión y fuerza de cizalladura o corte, que es cuando se corta el material en su totalidad. Debido a esto, los hormigones poseen armaduras de acero, que son esas vigas de acero que se ven en toda construcción, ya que estás permiten soportar todas estas solicitaciones. Sin embargo, la capacidad de soporte dependerá de varios factores; entre ellos, tipo de viga, calidad del cemento, cantidad de cemento, cantidad de agua; y por supuesto, cantidad de áridos. Todo esto tiene que ver con el tipo de normativa que cumpla la estructura a construir. Otro factor importante es la presencia de cloruros sobre las vigas y sobre el hormigón; que esto, principalmente dependerá de la impermeabilidad del hormigón; de lo contrario existirá corrosión sobre el hormigón. También, su resistividad dependerá del tipo de estructura; es decir, si se uso hormigón armado o hormigón pretensado, este ultimo, muy común en la construcción de rascacielos, o construcciones a prueba de terremotos o irregularidades climáticas, como así pudiera ser la construcción de una central nuclear, etc.
El modelo de difusión del cloruro se basa en la primera ley de Fick. La segunda ley de Fick es la ecuación de balance de masa aplicada a la primera ley de Fick. Cabe destacar que existen otros modelos como el de Collepardi, el de Selmer-Pousen, el de Duracrete y el de Nilsson, entre otros. La vida útil de una estructura fue modelada por Tutti y la divide en 2 periodos; uno, periodo de iniciación y dos, periodo de propagación.
Para el análisis de la fiabilidad de una estructura, es decir, resistividad en función del tiempo o en función de la temperatura, etc., es común utilizar programas como LIFEPROB. Sin embargo, para los modelados matemáticos, como podría tener de origen funciones como de deformación en función de tensión, por poner un ejemplo, se podría usar el matlab junto a simulink en el desarrollo de la resolución de las ecuaciones diferenciales, aunque este no fue diseñado para ingeniería estructural o civil.
La teoría de la mezcla dice, que el potencial de un material es la suma potencial de los componentes. La composición de la teoría de mezcla dá lugar a la ortotropia y la anisotropía como resultado. Un material suele poseer una matriz y un refuerzo. En el caso del Hormigón armado la matriz es la armadura de acero y el refuerzo, el hormigón. Cuando un material es isótropo u ortotropico puede tener inestabilidad, este fenómeno se puede dar si la matriz se lo permite. Esto sucede cuando la matriz pierde rigidez y genera en consecuencia pandeo; o como podríamos hablar de fuerzas de carga de compresión, que generarían perdida por compresión, por lo que podría existir deformaciones transversales por efecto poisson, lo que podría producir a futuro la destrucción del hormigón.
INGENIERÍA DE CONTROL
Las ecuaciones diferenciales nos pueden dar el comportamiento modular de un sistema y el sistema de ecuaciones diferenciales el comportamiento total. Muchas veces, se precisa despejar funciones del sistema de ecuaciones diferenciales, como por ejemplo, la entrada de un sistema o la salida de un sistema respectivamente, como podría ser la entrada en un aire acondicionado que es enfriar o calentar el ambiente; o la salida que es similar.; es decir, el ambiente climatizado. La entrada y la salida pudiera variar, dependiendo que factores uno quiere analizar; como por ejemplo, el voltaje de entrada y la corriente de salida, etc., pero el problema de todo esto es que muchas veces estas ecuaciones no se pueden despejar; para eso, se hace uso de la transformada de Laplace y de la transformada Z (en sistemas clásicos, no así en sistemas modernos, que se hace uso de matemática avanzada). De esta forma, se expresa la forma compleja de la ecuación, y es posible despejar la entrada o la salida. Un tema no menor es la función de transferencia, que expresa la relación entre la entrada y la salida de un sistema
G(s)= R(s)/E(s)
donde G(s) es la función de transferencia, R(s) la salida y E(s) la entrada.
Por ejemplo, la función de transferencia de un resorte que posee en su extremo una masa, viene dada por la entrada, que es la fuerza peso, que ejerce la masa hacia abajo, y la salida, que es el desplazamiento de la masa que se ve limitado por la constante del resorte. Entonces
G(s)= X(s)/F(s)
donde X(s) es el desplazamiento y F(s) es la fuerza peso. luego todo sistema de control se puede expresar como diagrama de bloque por ejemplo en este caso
E------->G(s)=X(s)/E(s)-------->S
donde E es la entrada, G(s)=X(s)/E(s), es la función de transferencia, y S, es la salida.
Los diagramas de bloque deben ser lo más compactos posibles; para eso, existen las tablas de equivalencias. Por ejemplo, para un diagrama de bloque en serie, las ecuaciones de transferencia se multiplican, para un diagrama en paralelo, se suman.
Lo bueno de todo esto es, que mediante simulink, que es el simulador de MATLAB, se puede ver el comportamiento o la conducta de lo que se quiere diseñar en forma grafica de función. Generalmente se expresa como una función de desplazamiento en función del tiempo, o velocidad en función del tiempo o aceleración en función del tiempo, ya que lo que se busca en ingeniería, casi siempre, es generar movimiento, ejemplo, motores eléctricos y motores térmicos. Por eso, la cinemática no es un tema menor; aunque, muchas veces, pueden ser funciones que dependan de la temperatura, la presión, el volumen, la humedad, la viscosidad, la corriente, el voltaje, etc.
Otro tema no menor, es saber diferenciar entre sistema en lazo abierto y sistema en lazo cerrado. En los sistemas de lazo cerrado, son tres componentes los que determinan al sistema de control: el sensor, el actuador y el controlador. Sin embargo, en los sistemas en lazo abierto, no hay sensores. Por ejemplo, en un lavarropas, la entrada es lavar la ropa y la salida que quede limpia, pero no existe un sensor que nos diga que 30 o 20 prendas envueltas en un tambor de lavarropas no posean ni una mancha luego del lavado; lo que se hace es calibrar el sistema. Es decir, calcular un tiempo estimativo, por el cual, la ropa quede limpia, pero el sistema no nos puede asegurar que se cumpla el objetivo, Es decir, puede haber un nivel de incertidumbre o error entre la salida y la referencia o lo que se desea. Por ejemplo, en las automatizaciones industriales los sistemas son en lazo cerrado, ya que poseen "SENSORES", MOTORES (actuadores) y PLCs (controladores) y la salida, normalmente, llega a las expectativas de la ecuación de referencia, que es lo que se desea obtener como resultado luego del proceso automatizado.
INGENIERÍA ELECTRÓNICA
Es muy común escuchar que en la vida todo tiene su proceso de maduración, pero ¿es realmente así?. Bien, para eso se debería primero hacer una pequeña introducción sobre este asunto tan complejo para las ciencias humanistas, sociales y naturales; y las ciencias matemáticas, físicas o de tipo ingenieriles. Ante todo, se debe saber que en el universo que todos conocemos, la mayoría de las magnitudes son análogas. Significa, que son continúas en el tiempo. Por ejemplo, la temperatura es una magnitud análoga. Es decir, no existe que un termómetro análogo pase de los 10 ° C a los 30° C, sin antes pasar por los 11° C, 12° C, etc., podrá hacerlo rápidamente, pero debe hacerlo. Otro ejemplo, de magnitud análoga, puede ser el tiempo, la presión, la velocidad, etc. Es decir, no existe el MRU en la vida real; ya que por ejemplo, antes de pasar a un MRU de 50 km/h debe haber un momento que pase de los 0 km/h a los 10 km/h, 20 km/h, etc.
Pero para comprender mejor este tema, podríamos hablar de la corriente eléctrica. La corriente eléctrica o señal eléctrica, puede ser análoga o digital. Es decir, manejar solo valores continuos o manejar solo valores discretos (aclarar que discreto no es lo mismo que discontinuo). Por ejemplo, la corriente alterna que llega de las centrales eléctricas al domicilio, es de tipo sinusoidal. Es decir, se comporta en sus valores como la forma de la función seno, y su valor eficaz, acá en Latinoamérica, es de 220 voltios. La corriente alterna; se la llama así, porque es bidireccional. Vá de un lado y vuelve hacia el otro. Además, si bien es continua, va subiendo y bajando su voltaje como la función seno; de ahí, que se la denomine señal de tipo sinusoidal, pero esto es imperceptible al ojo humano, ya que lo realiza de forma muy veloz.
Es por eso, que el famoso tester o multimetro digital, no lo puede detectar; y suele marcar los 220 voltios, que son el valor promedio o valor eficaz que llega a domicilio de tensión de fase. No así tensión de línea que marcaría 380 voltios. Sin embargo, esta corriente alterna se pude rectificar a corriente continua. Las características de la corriente continua es que es unidireccional, viaja solo hacia un sentido y además permite manejar valores análogos como digitales. Es decir, puede manejar valores discretos, ya que es una señal de tipo lineal y no sinusoidal; debido a que la rectificación es siempre mediante filtros, que logran que la rectificación de onda media y completa sean lo más lineal posible. Esto se logra mediante capacitores o condensadores. De está forma, la señal digital, en contraposición de la señal análoga, maneja volares discretos. Y puede pasar de un valor grande a otro pequeño o viceversa de forma instantánea. Y acá ya no hablaríamos de procesos intermedios como las magnitudes análogas.
Bien, por eso; es importante diferenciar entre procesos humanos, sociales y naturales de las ciencias humanistas, sociales y naturales; y procesos de las ciencias matemáticas, físicas o de tipo ingenieriles, que distinguen también entre valores o magnitudes análogas y discretas. Y principalmente, en lo concerniente a las ciencias matemáticas, distinguir entre funciones continuas, discontinuas y discretas, que por supuesto, no son lo mismo. En efecto, aclarar que existen sistemas estáticos o dinámicos, sistemas deterministas o estocásticos; y sistemas continuos o discretos; y esto abarca estudios desde la sociología, pasando por la ingeniería, como hice mención anteriormente, hasta llegar incluso a campos de la biología y la medicina.
Básicamente, la ingeniería de control y la automatización, se encuentran desde el sistema de aceleración de un automóvil, pasando por el sistema de inyección hasta llegar a una caldera de agua de una planta termoeléctrica, o como podría ser la automatización de una planta de ensamblado de automóviles mediante robots en serie. El sistema de control frecuentemente es modular. Por ejemplo, un automóvil posee un sistema de control automatizado en su caja de cambio, ya que al mover la palanca de cambio, va modificando el engranaje en la que van a estar sometidas las ruedas de un automóvil para limitar su nivel de velocidad, o como se podría hablar del embrague, que se encarga de acoplar y desacoplar el movimiento del motor con las ruedas del automóvil, etc. En efecto, los sistemas de control deben poseer su modelo matemático. El sistema de control clásico puede ser lineal o no lineal, dependiendo si su modelo matemático se puede representar mediante ecuaciones diferenciales lineales o no lineales. Se supone que si es lineal su resolución se encontrara mediante la serie de Fourier o la transformada de Laplace.
En el caso del uso de ecuaciones no lineales, se hará uso del algebra lineal y de la transformada z. Si hablamos de sistema de control moderno (no clásico); se hará uso de matemática más compleja como matrices, transformaciones lineales, etc. Todas estás ecuaciones, que hago mención, derivan de leyes físicas fundamentales que pueden pertenecer a la mecánica clásica, a la física cuántica, a la mecánica de fluido, a los sistemas de señales eléctricas u electromagnéticas, a sistemas termodinámicos o sistemas químicos, donde en muchos de ellos su mecanismo automático puede depender de elementos como el tiempo, la temperatura, la presión, la densidad, la viscosidad, el volumen, el flujo de corriente eléctrica, etc. ESTOS MODELOS MATEMÁTICOS LUEGO TIENEN SU REPRESENTACIÓN MEDIANTE EL DIAGRAMA DE BLOQUES (representaciones mediante cuadros y flechas) PARA SU POSTERIOR DISEÑO Y/O CONSTRUCCIÓN DE LO DESEADO.Ciertos componentes matemáticos que derivan en el diagrama de bloques, pueden simplificarse mediante programas como MATLAB, aunque existen otros muy buenos.
Los modelos matemáticos, no solo son útiles en el ámbito ingenieril sino, que también se aplican y desarrollan en disciplinas como la biología, humanística y sociol hasta llegar a a disciplinas como las ciencias económicas. Los sistemas de control pueden ser clásicos o robustos. Serán robustos, si se detalla la diferencia entre el valor nominal y el valor real; es decir, el nivel de incertidumbre o nivel de error, que puede haber entre los valores del modelo matemático teórico y la realidad. Es importante aclarar sobre todo esta temática, que estamos hablando del ingeniero dedicado al diseño y construcción de tipo estructural, o diseñador o constructor de plantas, equipos, maquinas o dispositivos eléctricos, electrónicos, mecánicos u electromecánicos, y no del ingeniero de carácter administrativo, dedicado al gestionamiento de procesos industriales de tipo ingenieriles. Espero que haya quedado claro este asunto...
INGENIERÍA MECÁNICA Y EN MATERIALES
Un tema no menor en la construcción de estructuras ingenieriles es hablar del cuarto estado de la materia. Todos aprendemos en los primeros años de educación media e universitaria los tres estados fundamentales de la materia, el estado solido, liquido y gaseoso, pero la verdad es, que existe un cuarto estado, el plasma, que es cuando un gas supera temperaturas superiores a los 20.000 grados C, ya que tiene las mismas características que la energía de una estrella. el estado plasma se utiliza en la siderurgia para cortar el acero, metal apropiado para la construcción ingenieril, a este tipo de corte se lo llama "corte por plasma", ya que por medio de la alta temperatura del gas nitrógeno, por ejemplo, se logra cortar el acero por medio de una antorcha para corte por plasma; aunque también es importante mencionar, que existe el corte por chorro de agua, que gracias a la alta presión de agua se logra cortar el acero también. claro que la dificultad de este tipo de corte es, que se precisa de una gran maquinaria, no así el corte por plasma que puede utilizarse un sistema móvil y realizar el corte del acero aun en zonas de dificultoso acceso. el mayor productor de acero en el mundo es China, otros productores importantes lo son Japón, Corea del Sur, EE.UU, Rusia, y por supuesto, Alemania; de hecho es tan importante Alemania en este rubro, que las normas internacional se basan en las normas Alemanas y Americanas. Entre ellas el DIN (instituto de normas alemanas) y el AISI americano...
En Argentina la norma se estable por el IRAM. por otra parte, no hay que olvidar como se unen las laminas de acero en toda construcción, entre ellas la naval, aeronáutica y espacial, ya que hasta la segunda guerra mundial se utilizaba el remachado, que mediante un remache se lograba unir las laminas de acero, esto requería de personal calificado y de un gran numero de trabajadores, todo esto cambio desde aquel entonces y se empezó con la utilización de la soldadura, que aporta su beneficio desde un punto de vista de la estanqueidad, rigidez, y estética. Otro tipo de soldadura muy común en la actualidad es la soldadura láser,aunque la de tipo arco es mucho más divulgada. Espero que haya quedado claro este asunto...
Autor: Prof. Gabriel Schwarz
Buenos Aires - Argentina
|
|