En algún momento de la historia, coincidió con Alan Turing en el cafetín de los Laboratorios Bell. Sin duda es otro gran personaje del que debemos leer. Claude Shannon.
que gran informacion tengo ahora....Claude Elwood Shannon,nacio en Petoskey,michigan-estados unidos,en 1916. hijo del juez de Gaylord y una profesora de secundaria.siendo joven se destaco por esa inquietud investigadora y esa habilidad innata de crear prototipos tecnicos heradados porsupuesto por su abuelo. se graduo extraordinariamente en la universidad de michigan,de ingeniero electrico y matematico. Estudio el flujo de las ondas electromagnéticas a través de un circuito. Y entiende que a través del código binario se puede homogeneizar todo tipo de información (textos, sonidos, imágenes...). Distingue claramente entre mensaje y el medio por el que éste se transmite.de lo cual ya estoy de por si sorprendido, al tiempo, analiza cómo medir la eficacia de un canal de comunicación a través del concepto de entropía, tomado de la segunda ley de la termodinámica. La entropía mide las pérdidas derivadas de los ‘ruidos’ en la transmisión de información de un mensaje, y, al tiempo, la posibilidad de eliminar las mermas, la incertidumbre, mediante la redundancia y la codificación numérica en el origen del proceso de comunicación y su descodificación en la fase de recepción. Desde el estudio del álgebra 'booleana' teoriza acerca del código binario, la base del lenguaje digital, a partir de unidades básicas de información, definidas por dos estados: el ‘si’ y el ‘no’, el 0 y el 1, abierto/cerrado, verdadero/falso, blanco/negro. El 0 y el 1 aparecen como el átomo de la información, como la base constructiva del mensaje. Una información compleja es una sucesión de unidades básicas, de unos y ceros. Más allá de la formulación teórica, Shannon construyó circuitos y máquinas basadas en los flujos binarios de información, mediante interruptores y relés en las que se anticipaban los embriones de muchos de los desarrollos de las décadas posteriores.y si un hombre es capaz de hacer eso,imagino como se sintio alan turing al encontrarse con el,en el cafe de los laboratorios bell".
Ingeniero estadounidense. Se graduó en ingeniería por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.
Durante su estancia en dicha institución empezó a trabajar sobre el problema de la eficacia de los diferentes métodos existentes de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la radiación electromagnética. Shannon orientó sus esfuerzos hacia la comprensión fundamental del problema y en 1948 desarrolló un método para expresar la información de forma cualitativa. Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información. La rama de las matemáticas inaugurada por Shannon se denominó teoría de la información y resultó ser extremadamente útil, no sólo en el diseño de circuitos de computadoras y la tecnología de comunicaciones, sino que también ha hallado aplicaciones fecundas en campos tan diversos como la biología, psicología, fonética e incluso semántica y literatura.
También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology.
El Instituto Tecnológico de Massachusetts ó Instituto de Tecnología de Massachusetts (MIT por las iníciales de su nombre en idioma inglés, Massachusetts Institute of Technology) es una universidad privada localizada en Cambridge, Massachusetts (Estados Unidos). Incluyen un total de 32 departamentos académicos con un fuerte énfasis en la investigación, la ingeniería, y la educación tecnológica.
claude shannon nació el 1916 en michigan EE.UU se graduó en ingeniería electricista y matemático en la universidad de michigan el 1936. en 1936,trabajo en el instituto de tecnología de massachusetts como asistente de investigación.
claude aprendió flujo de ondas, electromagnéticas mediante circuitos mediante el código binario se puede homogenear todo tipo de información. EL o 1 aparecen como el átomo de la información shannon construyo,circuitos y maquinas mediante los códigos.a lo largo de su vida shannon desarrollo su actividad en diversos campos donde coopero con creaciones de aplicaciones.
su carrera y sus aportaciones le valió,como miembro de la academia de artes y ciencias americana de la sociedad filosófica.
Las tres afirmaciones siguientes, tiene algo en común: No dicen nada concreto. Lo concreto se considera un aporte.
-"Construyó circuitos y maquinas mediante los códigos a lo largo de su vida." -"Cooperó con creaciones de aplicaciones." -"Su carrera y sus aportaciones le valió..."
Se dice que esta teoría matemática de la comunicación fue publicada en 1948 por CLAUDE ELWOOD SHANNON.
Esta teoría nació con el cálculo de probabilidades, pero su modelo de desarrollo más cuando lo utilizaron para trabajos de ingeniería de las telecomunicaciones.
Tuvo un maestro que lo apoyo en todo, gracias a él su trabajo se hizo más concreto. Su maestro NORBERT WIENER se dedicaba a la cibernética. Se dice que tuvo otro ayudante Warren Weaber pero que no colaboro mucho con él, sin embargo su modelo es conocido también como “El modelo de Shannon y Weaber”.
Esta teoría le permitiría que la señal que está en uso q salga del canal, llega a un receptor que decodifica la información convirtiéndola posteriormente en un mensaje que pasa a un destinatario. Con el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje, sin que la presencia de algún ruido arruine la transmisión.
Estas son algunos de sus características del modelo de Shannon:
- Desarrollado en los años 40 – Telecomunicaciones - Utilizado en cibernética - Utiliza un sistema binario - Fuente: campo en que se genera - Trasmisor: teléfono telégrafo - Canal: línea telefónica - Receptor: el aparato hacia el cual va a llegar - Destinatario: receptor final - Ruido: distractor
Claude Shannon llegó a doctorarse en filosofía matemática y se enfocó en el estudio de la teoría de la información, trabajo que fue publicado en 1948 bajo el título "Una Teoría Matemática de la Comunicación". En él exponía su visión de que todas las fuentes de información, mecánicas y humanas así como sus canales de comunicación, son medibles. También planteaba que la información se puede transmitir a través de un canal si la magnitud de la fuente emisora no excede la capacidad de transmisión del canal que la conduce. Igualmente tomó en cuenta otros factores de la comunicación como los ruidos y la redundancia.
Incursionó en otros campos como el de la inteligencia artificial, donde sentó fuertes bases en la programación de computadoras para realizar diversas labores, como por ejemplo, jugar al ajedrez. Diseñó también un mouse y aplicó algunas ideas en los juegos de casino de Las Vegas.
Claude Elwood Shannon terminó sus días víctima del mal de Alzheimer a los 84 años.
Dicho de esa manera "Diseñó también un mouse" pareciera que inventó un "mouse" es decir un dispositivo puntero que usamos en Windows. En realidad el diseñó un robot en forma de ratón que se desplazaba en un laberinto.
Al saber un poco más de la vida del señor SHANNON me encanta que el que en el 1949 demostraron como podía el analizar dicha cuantificación mediante métodos estrictamente matemático .adición de elementos extraños, etc. en la rama de las matemática enaugurada por Shannon se denominó teoría de la información resulto extremadamente útil , no solo en el diseño de circuitos de computadoras y la tecnología de comunicación tan diversos como la biología , psicología , fonética e incluso semántica y literatura . El postulo a la teorema del muestreo que una señal debe muestreada al doble de su frecuencia natural para que no se produzca el fenómeno de aliasing o aparición de componentes frecuencia les. En 1956 el ingreso como profesor en el Massachusetts institute of technology él era muy curioso en su profesión.
Me parece haber observado antes que debe revisar la ortografía y gramática de su texto antes de publicarlo. Parece un texto recortado y está lleno de errores. No podemos a estas alturas permitirnos tales fallas.
El modelo de SHANNON es un sistema general de comunicación que parte de una fuente de información desde la cual, llega a un transmisor, se emite una señal, la cual viaja por un canal, pero a largo de su viaje puede ser interferida por algún ruido. la señal sale del canal, llega a un receptor que codifica información convirtiéndole posteriormente en mensajes que pasa a un destinatario. con el modelo de la teoría de la información se trata de llegar a determinar la forma mas económica, rápida y segura de codificar un mensaje, sin que la presencia de algún ruido complique su transmisión. para esto, el destinatario de comprender la señal correctamente;el problema es que aunque exista un mismo código de por medio, esto no significa que destinatario va a captar el significado que emisor quiso dar el mensaje.
Explique lo siguiente: "el problema es que aunque exista un mismo código de por medio, esto no significa que destinatario va a captar el significado que emisor quiso dar el mensaje".
Es decir que La codificación puede referirse tanto a la transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad. Un concepto fundamental en la teoría de la información es que la cantidad de información contenida en un mensaje es un valor matemático bien definido y medible. El término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se refiere a la cantidad de información, el valor más alto se le asigna al mensaje que menos probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va a ser recibido, su cantidad de información es cero.
Claude Elwood Shannon: Nació el 30 de abril de 1916 en Míchigan en EE.UU,Falleció el 24 de febrero del 2001 a los 84 años en Medfor EE.UU de Alzheimer. Alma mater,Universidad de Míchigan. Supervisor doctoral frank Lauren Hitchcock,ingeniero electrónico y matemático,empleado del Instituto Tecnológico de Massachusetts. Miembro del royal society Distonciones: Premio Claude Shannon en 1972. Recordado como el padre de la teoría de la información. Desde joven tuvo inclinación hacia las cosas mecánicas. En 1936 obtuvo los títulos de ingeniero electricista y matemático. Fue asistente de investigación en el departamento de ingeniería eléctrica en el Instituto Tecnológico de Massachusetts. Trabajo en el computador analógico más avanzado de esa era,el diferential Analyzer de Vannevar Bush. Primeros descubrimiento:Circuitos elevadores complejos y álgebra Boleana que intenta simplificar centralitas telefónicas de reles y que se podía usar para hacer cálculos desarrollando algreva Boleana y circuitos digitales.Demostró como el álgebra Boleana de usa en el análisis y en la síntesis de la conmutación y de los circuitos digitales. En 1940 le fue concedido el premio para ingenieros del Instituto Norteamericano Alfredo noble de EE.UU , estudio un máster en ingeniería eléctrica y se doctoro en filosofía matemática. Laboratiobslo Bell,Asociación fructífera de matemáticos y cientificos,inventores del transistor. Constructores de computadoras basadas en relevadores . Teoría matemática de la información: Demostró que todas las fuentes de la información (telagrafo eléctrico,teléfono,radio,cámara de televisión,etc. Pueden medirse, y que los canales de comunicación tienen una unidad de medida similar determinando la velocidad máxima de transferencia o capacidad de canal. Programación de computadoras para el ajedres: En 1950 describe la programación de una computadora para jugar ajedres. Otras contribuciones y reconocimiento: La biblioteca teconomía y la documentación, el desarrollo boleano revolucióno la búsqueda en catálogos de bibliotecas Publicaciones: Shannon Claude Elwood 1948 "A matematical theory communication". Bell System technical Journal 27(379-423 and 623-656) , Shannon, Claude Elwood (1949)" comunicación theory of secrecy systems". Bell System Technical Journal 28 (656-715)
fue un Científico, ingeniero, político y catedrático de universidad ocupo los cargos de Presidente del consejo de administración (1957–1959) fue empleado en el Instituto Tecnológico de Massachusetts. •Sus distinciones fueron Caballero comendador de la Orden del Imperio británico,National,Medal ofScience(1963),Medalla John Fritz,William Procter Prize for Scientific Achievement.
Fue la primera persona en hacer publico la palabra "bit" (en el sentido de "dígito binario").
Más importante aún, vio que toda la información podría ser digitalizada, lanzando así una revolución en curso en la industria de las comunicaciones.
¿en que consisten los codigos binarios? Los unos y los ceros llevan milenios entre nosotros, desde algunas culturas primitivas,Primero fueron Leibniz y la aritmética, luego Boole y la lógica, y finalmente Shannon y su idea de utilizar el álgebra de Boole para simplificar los circuitos.
la utilización del sistema de numeración binario es empleado para realizar cálculos de forma sencilla y eficiente. Ellos hablan en el lenguaje de los unos y los ceros.( 1 ó 0 )
George Boole y Claude Shannon: Ellos, siguiendo los pasos de Leibniz, son los responsables de que los unos y ceros estén hoy por todas partes, desde el ordenador en el que se han escrito estas líneas hasta el móvil en el que posiblemente las estás leyendo.
Esta ciencia,estudia los procesos que sigue nuestra mente para sacar conclusiones a partir de unas premisas.procura averiguar si esos procesos son válidos o no, para determinar si las conclusiones que hemos establecido son verdaderas (se representan con un 1) o falsas (se representan con un 0). ejm :
Primera proposición: “Para que pase la corriente eléctrica, los dos interruptores tienen que estar encendidos” (verdadera). Segunda proposición: “El interruptor B no está encendido” (verdadera). Conclusión cierta: “la corriente eléctrica no pasa”....
Este fragmento : "desde el ordenador en el que se han escrito estas líneas hasta el móvil en el que posiblemente las estás leyendo." me da entender que se trata de un copia y pega. procuremos leer y hacer una síntesis.
Claude Elwood shannon , en 1932 ingreso en la universidad de Míchigan , donde su hermana catherine de doctoro como matemática.
Ingeniero estadounidense se graduó en ingenieria por la universidad de Míchigan ,en 1936 y cuatro años mas tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.
SIRCUITOS RELEVADORES COMPLEJOS Surgió su interés hacia los circuitos de relevadores complejos. Intentando simplificar centralita telefónicas de relés se dio cuenta de que estos podían usarse Para aser cálculos. Sumado esto a su gusto para la lógica y el álgebra booleana. Pudo desarrollar esta idea durante el verano de 1937que paso en los laboratorios Bell en la ciudad de Nueva York.
ÁLGEBRA BOOLEANA Y CIRCUITO DIGITALES El álgebra booleana es un sistema matemático
En su tesis de maestría demostró, como el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas en 1940 le fue concedido el premio para ingenieros norte americana.
Es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras. También es la conexión que realizan los diferentes modos que existen en distintos lugares y distancias para lograr un camino apropiado para conectar dos usuarios de una red de telecomunicaciones
Claude Elwood Shannon, nacio en Gaylord, EE UU, 1916 - y murio en Medford, 2001. Se graduó en ingeniería por la Universidad de Michigan en 1936, cuatro años más tarde obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology. Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información. También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology.
Nació en Gaylord - EEUU en el año de 1916 y murió en Medford en el año 2001. Se graduó en Ingeniería por la universidad de Míchigan en 1913 y 4 años mas tardé, obtuvo un doctorado en matemáticas en el Massachusetts Instituto of Technology. En 1948 desarrollo un metodo para expresar la información de forma cualitativa. En 1949 demostraron cómo se podía analizar dicha cuantificación mediantes métodos matemáticos. Shanom se denominó la teoría de la información y resulto extremadamente útil, también postuló el teorema del muestreó, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural para que no se produzca el fenómeno de ALIASING o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology.
que gran informacion tengo ahora....Claude Elwood Shannon,nacio en Petoskey,michigan-estados unidos,en 1916.
ResponderBorrarhijo del juez de Gaylord y una profesora de secundaria.siendo joven se destaco por esa inquietud investigadora y esa habilidad innata de crear prototipos tecnicos heradados porsupuesto por su abuelo.
se graduo extraordinariamente en la universidad de michigan,de ingeniero electrico y matematico.
Estudio el flujo de las ondas electromagnéticas a través de un circuito. Y entiende que a través del código binario se puede homogeneizar todo tipo de información (textos, sonidos, imágenes...). Distingue claramente entre mensaje y el medio por el que éste se transmite.de lo cual ya estoy de por si sorprendido, al tiempo, analiza cómo medir la eficacia de un canal de comunicación a través del concepto de entropía, tomado de la segunda ley de la termodinámica. La entropía mide las pérdidas derivadas de los ‘ruidos’ en la transmisión de información de un mensaje, y, al tiempo, la posibilidad de eliminar las mermas, la incertidumbre, mediante la redundancia y la codificación numérica en el origen del proceso de comunicación y su descodificación en la fase de recepción.
Desde el estudio del álgebra 'booleana' teoriza acerca del código binario, la base del lenguaje digital, a partir de unidades básicas de información, definidas por dos estados: el ‘si’ y el ‘no’, el 0 y el 1, abierto/cerrado, verdadero/falso, blanco/negro. El 0 y el 1 aparecen como el átomo de la información, como la base constructiva del mensaje. Una información compleja es una sucesión de unidades básicas, de unos y ceros. Más allá de la formulación teórica, Shannon construyó circuitos y máquinas basadas en los flujos binarios de información, mediante interruptores y relés en las que se anticipaban los embriones de muchos de los desarrollos de las décadas posteriores.y si un hombre es capaz de hacer eso,imagino como se sintio alan turing al encontrarse con el,en el cafe de los laboratorios bell".
Dos cosas:Qué dice "la segunda ley de la termodinámica"? y qué son los "relés"?
Borrarla segunda ley de la termodinamica dice que la entropia del universo tiende a aumentar en el tiempo y que genera desorden en la materia.
Borrarlos reles son dispositivos electromecanicos que funcionan como un interruptor y son controlados por un circuito electrico.
Ingeniero estadounidense. Se graduó en ingeniería por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.
ResponderBorrarDurante su estancia en dicha institución empezó a trabajar sobre el problema de la eficacia de los diferentes métodos existentes de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la radiación electromagnética. Shannon orientó sus esfuerzos hacia la comprensión fundamental del problema y en 1948 desarrolló un método para expresar la información de forma cualitativa.
Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información.
La rama de las matemáticas inaugurada por Shannon se denominó teoría de la información y resultó ser extremadamente útil, no sólo en el diseño de circuitos de computadoras y la tecnología de comunicaciones, sino que también ha hallado aplicaciones fecundas en campos tan diversos como la biología, psicología, fonética e incluso semántica y literatura.
También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology.
Que tiene de particular, el Massachusetts Institute of Technology?
BorrarEl Instituto Tecnológico de Massachusetts ó Instituto de Tecnología de Massachusetts (MIT por las iníciales de su nombre en idioma inglés, Massachusetts Institute of Technology) es una universidad privada localizada en Cambridge, Massachusetts (Estados Unidos). Incluyen un total de 32 departamentos académicos con un fuerte énfasis en la investigación, la ingeniería, y la educación tecnológica.
BorrarCLAUDE ELWOOD SHANNON nació en Michigan 30 de Abril de 1916 y falleció el 24 de Febrero del 2001.
ResponderBorrarLLAMADO EL PADRE DE LA TEORIA DE LA INFORMACION.
Sus primeros Inventos:
1- Circuitos Reveladores Complejos y Algebra Booleana.
2- Álgebra Booleana y Circuitos Digitales.
SUS PUBLICACIONES:
1)Shannon Claude Elwood (1948). «TEORIA MATEMATICA DE LA INFORMACION».
Shannon Claude Elwood (1950). «PROGRAMACION DE COMPUTADORAS PARA EL AJEDREZ».
ALUMNO: CHRISTIAN ABEL ASPAJO GARCIA
Que propone la TEORIA DE LA INFORMACION?
Borrarpropone transmitir y procesar información.
Borrarclaude shannon nació el 1916 en michigan EE.UU
ResponderBorrarse graduó en ingeniería electricista y matemático en
la universidad de michigan el 1936.
en 1936,trabajo en el instituto de tecnología de massachusetts
como asistente de investigación.
claude aprendió flujo de ondas, electromagnéticas mediante
circuitos mediante el código binario se puede homogenear
todo tipo de información.
EL o 1 aparecen como el átomo de la información shannon
construyo,circuitos y maquinas mediante los códigos.a lo largo de su vida shannon desarrollo su actividad en diversos campos donde coopero con creaciones de aplicaciones.
su carrera y sus aportaciones le valió,como miembro de la academia de artes y ciencias americana de la sociedad filosófica.
Las tres afirmaciones siguientes, tiene algo en común: No dicen nada concreto. Lo concreto se considera un aporte.
Borrar-"Construyó circuitos y maquinas mediante los códigos a lo largo de su vida."
-"Cooperó con creaciones de aplicaciones."
-"Su carrera y sus aportaciones le valió..."
TEORIA DE LA COMUNICACIÓN DE CLAUDE SHANNON
ResponderBorrarSe dice que esta teoría matemática de la comunicación fue publicada en 1948 por CLAUDE ELWOOD SHANNON.
Esta teoría nació con el cálculo de probabilidades, pero su modelo de desarrollo más cuando lo utilizaron para trabajos de ingeniería de las telecomunicaciones.
Tuvo un maestro que lo apoyo en todo, gracias a él su trabajo se hizo más concreto. Su maestro NORBERT WIENER se dedicaba a la cibernética. Se dice que tuvo otro ayudante Warren Weaber pero que no colaboro mucho con él, sin embargo su modelo es conocido también como “El modelo de Shannon y Weaber”.
Esta teoría le permitiría que la señal que está en uso q salga del canal, llega a un receptor que decodifica la información convirtiéndola posteriormente en un mensaje que pasa a un destinatario. Con el modelo de la teoría de la información se trata de llegar a determinar la forma más económica, rápida y segura de codificar un mensaje, sin que la presencia de algún ruido arruine la transmisión.
Estas son algunos de sus características del modelo de Shannon:
- Desarrollado en los años 40 – Telecomunicaciones
- Utilizado en cibernética
- Utiliza un sistema binario
- Fuente: campo en que se genera
- Trasmisor: teléfono telégrafo
- Canal: línea telefónica
- Receptor: el aparato hacia el cual va a llegar
- Destinatario: receptor final
- Ruido: distractor
El apellido es Weaver, osea Modelo de Shannon y Weaver.
BorrarClaude Shannon llegó a doctorarse en filosofía matemática y se enfocó en el estudio de la teoría de la información, trabajo que fue publicado en 1948 bajo el título "Una Teoría Matemática de la Comunicación". En él exponía su visión de que todas las fuentes de información, mecánicas y humanas así como sus canales de comunicación, son medibles. También planteaba que la información se puede transmitir a través de un canal si la magnitud de la fuente emisora no excede la capacidad de transmisión del canal que la conduce. Igualmente tomó en cuenta otros factores de la comunicación como los ruidos y la redundancia.
ResponderBorrarIncursionó en otros campos como el de la inteligencia artificial, donde sentó fuertes bases en la programación de computadoras para realizar diversas labores, como por ejemplo, jugar al ajedrez. Diseñó también un mouse y aplicó algunas ideas en los juegos de casino de Las Vegas.
Claude Elwood Shannon terminó sus días víctima del mal de Alzheimer a los 84 años.
Dicho de esa manera "Diseñó también un mouse" pareciera que inventó un "mouse" es decir un dispositivo puntero que usamos en Windows. En realidad el diseñó un robot en forma de ratón que se desplazaba en un laberinto.
Borrarclaro profesor. gracias por la aclaración. es tal como se ve en la imagen al inicio.
Borrarclaro profesor. gracias por la aclaración. es tal como se ve en la imagen al inicio.
BorrarAl saber un poco más de la vida del señor SHANNON me encanta que el que en el 1949 demostraron como podía el analizar dicha cuantificación mediante métodos estrictamente matemático .adición de elementos extraños, etc. en la rama de las matemática enaugurada por Shannon se denominó teoría de la información resulto extremadamente útil , no solo en el diseño de circuitos de computadoras y la tecnología de comunicación tan diversos como la biología , psicología , fonética e incluso semántica y literatura .
ResponderBorrarEl postulo a la teorema del muestreo que una señal debe muestreada al doble de su frecuencia natural para que no se produzca el fenómeno de aliasing o aparición de componentes frecuencia les. En 1956 el ingreso como profesor en el Massachusetts institute of technology él era muy curioso en su profesión.
Me parece haber observado antes que debe revisar la ortografía y gramática de su texto antes de publicarlo. Parece un texto recortado y está lleno de errores. No podemos a estas alturas permitirnos tales fallas.
Borrarmil disculpa profesor por observar mi ortografía para la próxima estaré pendiente de mi ortografía antes de enviarle
BorrarLA TEORÍA DE COMUNICACIÓN DE SHANNON
ResponderBorrarEl modelo de SHANNON es un sistema general de comunicación que parte de una fuente de información desde la cual, llega a un transmisor, se emite una señal, la cual viaja por un canal, pero a largo de su viaje puede ser interferida por algún ruido. la señal sale del canal, llega a un receptor que codifica información convirtiéndole posteriormente en mensajes que pasa a un destinatario. con el modelo de la teoría de la información se trata de llegar a determinar la forma mas económica, rápida y segura de codificar un mensaje, sin que la presencia de algún ruido complique su transmisión. para esto, el destinatario de comprender la señal correctamente;el problema es que aunque exista un mismo código de por medio, esto no significa que destinatario va a captar el significado que emisor quiso dar el mensaje.
Explique lo siguiente: "el problema es que aunque exista un mismo código de por medio, esto no significa que destinatario va a captar el significado que emisor quiso dar el mensaje".
BorrarEs decir que La codificación puede referirse tanto a la transformación de voz o imagen en señales eléctricas o electromagnéticas, como al cifrado de mensajes para asegurar su privacidad. Un concepto fundamental en la teoría de la información es que la cantidad de información contenida en un mensaje es un valor matemático bien definido y medible. El término cantidad no se refiere a la cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se refiere a la cantidad de información, el valor más alto se le asigna al mensaje que menos probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va a ser recibido, su cantidad de información es cero.
BorrarClaude Elwood Shannon:
ResponderBorrarNació el 30 de abril de 1916 en Míchigan en EE.UU,Falleció el 24 de febrero del 2001 a los 84 años en Medfor EE.UU de Alzheimer.
Alma mater,Universidad de Míchigan.
Supervisor doctoral frank Lauren Hitchcock,ingeniero electrónico y matemático,empleado del Instituto Tecnológico de Massachusetts.
Miembro del royal society
Distonciones:
Premio Claude Shannon en 1972.
Recordado como el padre de la teoría de la información.
Desde joven tuvo inclinación hacia las cosas mecánicas.
En 1936 obtuvo los títulos de ingeniero electricista y matemático. Fue asistente de investigación en el departamento de ingeniería eléctrica en el Instituto Tecnológico de Massachusetts. Trabajo en el computador analógico más avanzado de esa era,el diferential Analyzer de Vannevar Bush.
Primeros descubrimiento:Circuitos elevadores complejos y álgebra Boleana que intenta simplificar centralitas telefónicas de reles y que se podía usar para hacer cálculos desarrollando algreva Boleana y circuitos digitales.Demostró como el álgebra Boleana de usa en el análisis y en la síntesis de la conmutación y de los circuitos digitales.
En 1940 le fue concedido el premio para ingenieros del Instituto Norteamericano Alfredo noble de EE.UU , estudio un máster en ingeniería eléctrica y se doctoro en filosofía matemática.
Laboratiobslo Bell,Asociación fructífera de matemáticos y cientificos,inventores del transistor. Constructores de computadoras basadas en relevadores .
Teoría matemática de la información:
Demostró que todas las fuentes de la información (telagrafo eléctrico,teléfono,radio,cámara de televisión,etc. Pueden medirse, y que los canales de comunicación tienen una unidad de medida similar determinando la velocidad máxima de transferencia o capacidad de canal.
Programación de computadoras para el ajedres: En 1950 describe la programación de una computadora para jugar ajedres.
Otras contribuciones y reconocimiento:
La biblioteca teconomía y la documentación, el desarrollo boleano revolucióno la búsqueda en catálogos de bibliotecas
Publicaciones:
Shannon Claude Elwood 1948 "A matematical theory communication". Bell System technical Journal 27(379-423 and 623-656) , Shannon, Claude Elwood (1949)" comunicación theory of secrecy systems". Bell System Technical Journal 28 (656-715)
Quien fue Vannevar Bush y cuales fueron sus aportes?.
Borrar
Borrarfue un Científico, ingeniero, político y catedrático de universidad ocupo los cargos de Presidente del consejo de administración (1957–1959) fue empleado en el Instituto Tecnológico de Massachusetts.
•Sus distinciones fueron Caballero comendador de la Orden del Imperio británico,National,Medal ofScience(1963),Medalla John Fritz,William Procter Prize for Scientific Achievement.
claude shannon
ResponderBorrarFue la primera persona en hacer publico la palabra "bit" (en el sentido de "dígito binario").
Más importante aún, vio que toda la información podría ser digitalizada, lanzando así una revolución en curso en la industria de las comunicaciones.
¿en que consisten los codigos binarios?
Los unos y los ceros llevan milenios entre nosotros, desde algunas culturas primitivas,Primero fueron Leibniz y la aritmética, luego Boole y la lógica, y finalmente Shannon y su idea de utilizar el álgebra de Boole para simplificar los circuitos.
la utilización del sistema de numeración binario es empleado para realizar cálculos de forma sencilla y eficiente. Ellos hablan en el lenguaje de los unos y los ceros.( 1 ó 0 )
George Boole y Claude Shannon: Ellos, siguiendo los pasos de Leibniz, son los responsables de que los unos y ceros estén hoy por todas partes, desde el ordenador en el que se han escrito estas líneas hasta el móvil en el que posiblemente las estás leyendo.
Esta ciencia,estudia los procesos que sigue nuestra mente para sacar conclusiones a partir de unas premisas.procura averiguar si esos procesos son válidos o no, para determinar si las conclusiones que hemos establecido son verdaderas (se representan con un 1) o falsas (se representan con un 0). ejm :
Primera proposición: “Para que pase la corriente eléctrica, los dos interruptores tienen que estar encendidos” (verdadera).
Segunda proposición: “El interruptor B no está encendido” (verdadera). Conclusión cierta: “la corriente eléctrica no pasa”....
Este fragmento : "desde el ordenador en el que se han escrito estas líneas hasta el móvil en el que posiblemente las estás leyendo." me da entender que se trata de un copia y pega. procuremos leer y hacer una síntesis.
Borrargracias profesor , lo hare .
BorrarClaude Elwood shannon , en 1932 ingreso en la universidad de Míchigan , donde su hermana catherine de doctoro como matemática.
ResponderBorrarIngeniero estadounidense se graduó en ingenieria por la universidad de Míchigan ,en 1936 y cuatro años mas tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.
Interesa resaltar sus aportes a la Historia de las computadoras.
BorrarCLAUDE SHANNON
ResponderBorrarPrimeros descubrimientos
SIRCUITOS RELEVADORES COMPLEJOS
Surgió su interés hacia los circuitos de relevadores complejos. Intentando simplificar centralita telefónicas de relés se dio cuenta de que estos podían usarse Para aser cálculos.
Sumado esto a su gusto para la lógica y el álgebra booleana.
Pudo desarrollar esta idea durante el verano de 1937que paso en los laboratorios Bell en la ciudad de Nueva York.
ÁLGEBRA BOOLEANA Y CIRCUITO DIGITALES
El álgebra booleana es un sistema matemático
En su tesis de maestría demostró, como el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales.
La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas en 1940 le fue concedido el premio para ingenieros norte americana.
En que consiste la "conmutación"?
BorrarCONMUTACION
BorrarEs una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.
También es la conexión que realizan los diferentes modos que existen en distintos lugares y distancias para lograr un camino apropiado para conectar dos usuarios de una red de telecomunicaciones
Claude Elwood Shannon, nacio en Gaylord, EE UU, 1916 - y murio en Medford, 2001. Se graduó en ingeniería por la Universidad de Michigan en 1936, cuatro años más tarde obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology. Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información. También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology.
ResponderBorrarNació en Gaylord - EEUU en el año de 1916 y murió en Medford en el año 2001. Se graduó en Ingeniería por la universidad de Míchigan en 1913 y 4 años mas tardé, obtuvo un doctorado en matemáticas en el Massachusetts Instituto of Technology. En 1948 desarrollo un metodo para expresar la información de forma cualitativa. En 1949 demostraron cómo se podía analizar dicha cuantificación mediantes métodos matemáticos. Shanom se denominó la teoría de la información y resulto extremadamente útil, también postuló el teorema del muestreó, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural para que no se produzca el fenómeno de ALIASING o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology.
ResponderBorrar