sopothetocho @ 27 Abr 2007 - 03:49 PM escribió:
Ultimamente le he estado dando vueltas a esto de la robotica y las IA´s, y pienso que al paso que vamos hoy en dia, la "inteligencia artificial" nunca sera posible, y todo por culpa de unos capullos que inventaron unas tarjetitas con "aburejos" lease IBM, y que despues se transformo en lo que es el codigo binario patatero, o eso creo, no se, no tengo ni puta idea, bueno, a lo que iba, ¿donde coño vamos con una mierda tan simple como esa? apagado, encendido, apagado, encendido... joder! ¿Con eso piensas crear un ente que aprenda, y se relacione con el entorno?, ¿o solo un trozo de mierda andante que lo unico que hace es hacer calculos matematicos a una velocidad de la ostia y elegir la opcion/accion mas adecuada para cada momento? no se, a mi me da que la primera opcion seria imposible del todo si seguimos como ahora anclados en la prehistoria... con 1´s y 0´s... on y off... ¿Y donde queda el margen de error? ¿Donde quedan las dudas? ¿A donde se fue la empatia?
ufff.. si que se te vá la pinza...
El sistema binario no es más que una base numérica de dos estados, que es más fácilmente manejable electronicamente. Lo mismo que habitualmente usamos aritmética de base 10 por la simple razón de que tenemos 10 dedos en las manos.
Boole murió hace casi 150 años, mucho antes de que se crearan los primeros ordenadores. El algebra de Boole permite realizar operaciones de lógica básicas de forma muy sencilla. La electrónica digital permite con extremada facilidad reproducir esas operaciones básicas del algebra de Boole.
El bit es según nos dice la semiótica, la cantidad mínima de información. La electrónica digital (y por extensión la informática), trata esas unidades mínimas de información. Pero eso no quiere decir que no pueda manejar unidades mayores de información, lo mismo que aunque tengamos 10 dedos no nos limitamos a contar hasta 10. La codificación de la información en sistema binario permite también su almacenamiento de forma eficiente.
Aparte de esto, la lógica no solo emplea dos estados (si/no), ni se basa en decisiones simples tipo arbol binario. La lógica difusa (Fuzzy logic), la probabilistica, etc etc.. son empleadas en inteligencia artificial y no se limitan a unos y ceros.