viernes, 12 de febrero de 2016

HOMEOSTASÍS

La homeostasis (del griego homos (ὅμος), ‘similar’, y stasis (στάσις), ‘estado’, ‘estabilidad’) es una propiedad de los organismos vivos que consiste en su capacidad de mantener una condición interna estable compensando los cambios en su entorno mediante el intercambio regulado de materia y energía con el exterior (metabolismo). Se trata de una forma de equilibrio dinámico que se hace posible gracias a una red de sistemas de control realimentados que constituyen los mecanismos de autorregulación de los seres vivos. Ejemplos de homeostasis son la regulación de la temperatura y el balance entre acidez y alcalinidad (pH).
El concepto fue aplicado por Walter Cannon en 1926, en 1929 y en 1932, para referirse al concepto de medio interno (milieu intérieur), publicado en 1865 por Claude Bernard, considerado a menudo el padre de la fisiología.
Tradicionalmente se ha aplicado en biología pero, dado el hecho de que no solo lo biológico es capaz de cumplir con esta definición, otras ciencias y técnicas han adoptado también este término.





ENTROPÍA

Entropía es una noción que procede de un vocablo griego que puede traducirse como “vuelta” o “transformación” (utilizado en sentido figurado).

En el siglo XIX Clausius acuñó el concepto en el ámbito de la Física para referirse a una medida del desorden que puede verse en las moléculas de un gas. A partir de entonces este concepto se utilizaría con diversos significados en múltiples ciencias, tales como la física, la química, la informática, la matemática y la lingüística.

En la teoría de la información, la entropía es la medida de la incertidumbre que existe ante un conjunto de mensajes (de los cuales sólo se recibirá uno solo). Se trata de una medida de la información que es necesaria para reducir o eliminar la incertidumbre.

Otra manera de entender la entropía es como la cantidad media de información que contienen los símbolos transmitidos. Palabras como “el” o “que” son los símbolos más frecuentes en un texto pero, sin embargo, son los que aportan menos información. El mensaje tendrá información relevante y máxima entropía cuando todos los símbolos son igualmente probables.










SISTEMA

Un sistema (del latín systēma, y este del griego σύστημα sýstēma 'reunión, conjunto, agregado') es un objeto complejo cuyos componentes se relacionan con al menos algún otro componente; puede ser material o conceptual. Todos los sistemas tienen composición, estructura y entorno, pero sólo los sistemas materiales tienen mecanismo, y sólo algunos sistemas materiales tienen figura (forma).

Según el sistemismo, todos los objetos son sistemas o componentes de otro sistema. Por ejemplo, un núcleo atómico es un sistema material físico compuesto de protones y neutrones relacionados por la interacción nuclear fuerte; una molécula es un sistema material químico compuesto de átomos relacionados por enlaces químicos; una célula es un sistema material biológico compuesto de orgánulos relacionados por enlaces químicos no-covalentes y rutas metabólicas; una corteza cerebral es un sistema material biológico compuesto de neuronas relacionadas por potenciales de acción y neurotransmisores; un ejército es un sistema material social y parcialmente artificial compuesto de personas y artefactos relacionados por el mando, el abastecimiento, la comunicación y la guerra; el anillo de los números enteros es un sistema conceptual algebraico compuesto de números positivos, negativos y el cero relacionados por la suma y la multiplicación; y una teoría científica es un sistema conceptual lógico compuesto de  hipótesis, definiciones y teoremas relacionados por la correferencia y la deducción.






INFOMACION

La información es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje. Existen diversos enfoques para el estudio de la información:
  • En biología, la información se considera como estímulo sensorial que afecta al comportamiento de los individuos
  • En computación y teoría de la información, como una medida de la complejidad de un conjunto de datos.
  • En comunicación social y periodismo, como un conjunto de mensajes intercambiados por individuos de una sociedad con fines organizativos concretos.
Los datos sensoriales una vez percibidos y procesados constituyen una información que cambia el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento.
Desde el punto de vista de la ciencia de la computación, la información es un conocimiento explícito extraído por seres vivos o sistemas expertos como resultado de interacción con el entorno o percepciones sensibles del mismo entorno. En principio la información, a diferencia de los datos o las percepciones sensibles, tienen estructura útil que modificará las sucesivas interacciones del que posee dicha información con su entorno.