jueves, 29 de enero de 2015

Reunión Anual Nacional de Mensa México A.C.

Este fin de semana se llevará a cabo la Reunión Anual Nacional de Mensa México A.C., en la ciudad de San Miguel de Allende, Guanajuato.
Miembros de todo el país se darán cita para tratar asuntos relacionados con el funcionamiento de la asociación, así como para estar presentes en las conferencias, abiertas para todo público. Si quieres conocer más sobre la asociación, presentar el exámen de admisión o simplemente asistir a las conferencias puedes consultar el evento en Facebook

viernes, 23 de enero de 2015

Inteligencia artificial (IA)

Hágamos máquinas que sean igual (o más) inteligentes que nosotros los humanos. ¿Que podría salir mal?
Stephen Hawking ha advertido en una entrevista que Inteligencia Artificial (IA) puede terminar con la humanidad, y Elon Musk acaba de donar 10 millones de dólares a los esfuerzos por evitar que la IA se vuelva malvada.
Existe un temor no solo por personas alejadas de la ciencia y la tecnología, sino como se ha mencionado de parte de quienes se encuentran a la vanguardia del conocimiento, respecto a la idea de que máquinas inteligentes puedan algún día si no terminar con la especie humana, si causarnos problemas importantes.
Un ejemplo es lo que haría un coche que se condujera de forma autónoma y se viera en una situación de un accidente inminente. ¿Qué haría, maniobrar para salvar al pasajero, o para evitar que mueran victimas en la banqueta?
Existen quienes creen que difícilmente la IA alcanzará a igualar la inteligencia humana. Sin embargo, con los desarrollos que se dan en el área de las ciencias computacionales como incorporar neuronas a los chips o, por otro lado, fabricar computadoras químicas que simulen neuronas, además del mejor entendimiento del cerebro humano que permite desarrollar mejores algoritmos de IA, creo que será posible un día reproducir maquinas que puedan replicar el pensamiento lógico del ser humano, e incluso presentar fenómenos equivalentes a la conciencia.
Una situación así presentaría problemas no sencillos, como el si se debería de otorgar derechos a estas entidades, como se está consiguiendo actualmente con los gorilas, a quienes se les considera "personas no humanas" y por tanto sujetos de derechos y protección.
Otra preocupación mucho más cercana es que las nuevas máquinas inteligentes empiecen a desplazar a los humanos de puestos de trabajo como sucede actualmente con los robots. Este problema a mi juicio tiene que ver más con el sistema económico que con la IA en sí. Actualmente es capital privado el que invierte más en investigación y desarrollo (IyD) en muchos países y por lo tanto quien conserva los derechos de las nuevas tecnologías. Una vez que tienen los robots (o computadoras) para prescindir de personal pues lo hacen. Si capital público empezara a invertirse en mayor medida en IyD y se crearan empresas estatales que comercializaran la tecnología los beneficios económicos obtenidos por las tecnologías permitirían ofrecer servicios y productos a la población, por lo que el que ésta fuese sustituida por tecnología en el trabajo de manera total o parcial no implicaría que se quedara sin medios de subsistencia. Sería algo similar a lo que sucede con países ricos en petróleo que con sus beneficios cubren muchas de las necesidades de la poblacíon aunque esta no sea muy productiva, pero con la diferencia de que no se estaría dependiendo de un recurso no renovable sino de tecnología, por lo que este sistema se podría sostener más en el tiempo, claro, si fuese ademas uno que estuviera en equilibrio con el ambiente (generando la electricidad para su funcionamiento de manera limpia, reciclando materiales o utilizando compuestos biodegradables).
Otra preocupación es la idea de que las máquinas de poder autodesarrollarse, llegarían al punto donde se podrían mejorar a una velocidad más rápida que la de los humanos, por lo que serían difíciles de controlar. Esto creo que no es del todo cierto, considerando que la genética y la medicina cada vez están más cerca de manipular al ser humano practicamente a voluntad. El problema para nosotros, más que tecnológico, sería ético: un robot podría no tener empacho en crear un modelo con un nuevo procesador o más apéndices, pero los humanos batallamos incluso para copiar (clonar) humanos así sin modificar, imagíense que alguein encontrara como "fabricar" humanos con una proporcion cerebro/cuerpo más grande (relacionada con la inteligencia superior), con cuatro brazos en lugar de dos o con branquias para respirar bajo el agua y vivir en ciudades submarinas a falta de espacio terrestre. Ya hoy la posibilidad de eliminar genes que predisponen al cáncer encienden debates sobre la selección artificial de humanos y lo que puede desencadenar el hacer bebés por encargo (ojos azules, blancos, hombres...) aún cuando estas caracterísiticas no vayan más allá de lo que ya se encuentra en humanos. Sería eso, más que la capacidad técnica lo que podría limitarnos de encontrarnos en una situación de competencia contra las máquinas.
Así pues, creo que la amenaza principal que representa un mundo con IA no viene de la IA sino de los mismos seres humanos, que no hemos aprendido a vivir en equilibrio aún sin la IA, y quienes desarrollamos nuestra moral y ética a un ritmo menor que nuestra ciencia y tecnología. Quien sabe, a lo mejor la IA podría ayudarnos a resolver este problema.