¡Bienvenido/a!

Pareces nuevo por aquí. Si quieres participar, ¡pulsa uno de estos botones!

Las Leyes de la Robótica

Anarko95Anarko95 Anónimo s.XI
editado enero 2012 en Literatura
Bueno, este es un gran tema, bastante entretenido y se da para discutirlo hasta muy tarde con un vaso de ron y mucho humo de cigarro en el aire. Espero que los que hayan leído relatos de ciencia ficción estén familiarizados con las tres leyes de la robótica.

Estas tres leyes se implantan en los cerebros de todos los robots para que su accionar sea mas expedito. Para los que no sepan, estas son:

1) Un robot nunca debe dañar a un ser humano o, por inacción, dejar que un ser humano sea dañado.
2) Un robot siempre debe obedecer a un ser humano mientras esto no entre en conflicto con la primera ley
3) Un robot siempre debe cuidar de sí mismo, mientras esto no entre en conflicto con las dos primeras leyes

Obviamente los de mente mas ágil se darán cuenta de que hay fallas en las leyes a pesar de que se puede hacer poco para mejorarlas. Por ejemplo, si un robot se ve en la situación de que haga lo que haga un ser humano sea dañado, su cerebro explota pues el dilema es demasiado para él. Si a los robots se les da la capacidad de juzgar cual desición tomar o a que ser humano seguir, se va a basar en las capacidades del ser humano. Ahora bien, el ser humano es abstracto, pues dejando de lado las diferencias físicas, un ser humano es como un robot avanzado. El problema radica en que como los robots piensan de acuerdo a los estándares humanos, se consideran seres humanos y mas aún se consideran mejores, pues está claro que un robot es superior a un humano normal. Por ende, solo aplicaran las leyes a otros robots, por lo que la palabra "humano" se saca de las leyes y se puede reemplazar por robot. Establecer un control mental a los robots para que no piensen en las cosas que ya dije, solo puede ser hecho por humanos, no por una máquina, por lo que tener una persona por robot sería un poco tonto. Y claro, robots menos avanzados no pensarían en estas cosas, pero los haría mas inútiles.

Tomando en cuenta que me gusta la ciencia ficción y el realismo futurista distópico (tipo "1984" de Orwell) he considerado que de manera que hacer un robot es obviamente MUY caro, solo son usados por la élite y por los que trabajan para ella. Considerese que mi visión de futuro es una sociedad como la del gran hermano pero gobernada por una clase social y política que une a la aristocracia, la burguesía, el poder religioso, el poder político y el poder militar. Por tanto, mis propias leyes de la robótica serían las siguientes:

1) Un robot nunca debe dañar a un aristócrata o, por inacción, dejar que un aristócrata sea dañado
2) Un robot siempre debe obedecer a un aristócrata mientras esto no entre en conflicto con la primera ley
3) Un robot siempre debe cuidar de sí mismo mientras esto no entre en conflicto con la primera y segunda ley
4) Un robot siempre debe obedecer a un Funcionario mientras esto no entre en conflicto con las tres primeras leyes

Aquí se debe considerar a aristócrata como un sujeto que forma parte de la élite ya mencionada y a un funcionario como un sujeto que trabaja para esta élite sea como científico o como policía secreta.

Principalmente les di la lata con todo esto por dos razones: para en cierta manera modernizar y añadir realismo a la ciencia ficción y también para que me ayuden a perfeccionar estas leyes dando escenarios imaginarios en los que las leyes entren en conflicto o dejen de servir.
«1

Comentarios

  • DanteDante Juan Ruiz, el Arcipreste de Hita s.XIV
    editado mayo 2011
    O sea que te apetece plagiar a Asimov. Bueno, allá cada cual, pero te aconsejaría que buscases un objetivo menos conocido, porque te van a pillar a la primera xD

    Ahora en serio, yo te aconsejo no tocar ese tema, al menos no de esa manera. Las leyes de la robótica de Asimov, las leyes de Clarke... es normal apoyarse en lo ya escrito para escribir algo nuevo, pero no de forma tan evidente. Además, te doy una pista: la ciencia ficción debe tener cierta base en la realidad, así que, si quieres escribir sobre robots de una forma realista, puedes buscar lo que se sabe a día de hoy sobre robótica (no hace falta que te saques un doctorado en ingeniería informática, solo que te documentes como buenamente puedas).

    Y buena suerte ;)
  • Anarko95Anarko95 Anónimo s.XI
    editado mayo 2011
    en realidad traté en un principio de no pensar en esas reglas, pero si lo piensas bien son incambiables. Porque si alguien se pusiera a hablar de maquinas industriales o computadores o asimo es muy fome, asi que pensemos en el típico robot. Y respecto al típico robot, no es posible inventar otras leyes, a lo mucho modificarlas...
  • JenofonteJenofonte Fernando de Rojas s.XV
    editado mayo 2011
    En realidad Asimov dejó que las Leyes de la Robótica pasaran al Dominio Público, por lo menos nunca manifestó una defensa de su autoría. También las modificó y aumentó (La Ley Cero).
    Otros autores las usaron de una manera u otra en sus obras y algunos agregaron una Cuarta:

    - Un robot debe establecer, siempre, su condición de robot (Lyuben Dilov)
    - Un robot debe reproducirse. A menos que esa reproducción interfiera con la Primera, Segunda o Tercera Leyes. (Harry Harrison).

    o una Quinta:

    - Un robot debe saber que es un robot (Nikola Kesarovski)

    De todos modos me parece interesante lo de los "aristócratas", porque desde que se implantan en un robot las Tres Leyes (o más) debe también implantarse el concepto de "humano", ¿qué es un "humano". Entonces podría implantarse las tres leyes aplicables a los "humano-aristócratas", algo así como lo que encontramos en la historia, no todos los habitantes de Atenas eran "Ciudadanos", había muchos que no lo lo eran y por lo tanto no gozaban de los beneficios de la Democracia. También está el caso del Imperio Romano, un hombre podía ser igual a otro, pero si el primero no era Ciudadano Romano podía recibir los latigazos, pero el otro, que demostraba su condición de Ciudadano, no podía ser azotado y podía también apelar al César (para poner un ejemplo conocido).
    Así, tomando la idea de Anarko95, ¿que pasaría si al implantar el concepto de "humano" en un robot se estableciera que es "humano" solamente el humano que tiene un determinado color de piel?, ¿peligroso, no?

    Finalmente no creo que haya problemas en desarrollar una historia usando las leyes de Asimov, adaptándolas o modificándolas, ni siquiera el mismo pudo librarse de las contradiciones, limitaciones y fallos de esas leyes.
    Pero si me permito recomendarte, Anarko, que leas mucho.

    Saludos
  • Susan CalvinSusan Calvin Anónimo s.XI
    editado julio 2011
    Hay cosas en las que, indiscutiblemente, tienes razón. Como en el hecho de que el factor económico haría que sólo unos pocos aristócratas pudiesen alcanzar a tener robots, como de hecho en las primeras historias que protagonizan los robots menos avanzados ocurre. Por poner un ejemplo, el hombre bicentenario, Andrew, es un robot muy muy primitivo que sólo una familia muy adinerada puede permitirse. Por lo que la idea, sin ánimo de ofender, no me parece demasiado original. Conforme van pasando los años a través de los libros esto va desapareciendo y cambiando.

    Además, ¿qué es eso de que los robots podrían llegar a creerse superiores a los seres humanos? Es normal que pensases así si sólo has visto la película de "Yo, robot" pero si hubieses leído la mayoría de novelas que conforman la saga de los robots de Asimov te darías cuenta de que los robots, en primer lugar, nunca, nunca, nunca, se consideran así mismos humanos. R. Daneel Olivaw, el único robot humaniforme que queda en "Los Robots del Amanecer" a menudo dice que dar su "vida" por salvar la de un ser es miles de veces preferible a que el ser humano si quiera sea herido. Los robots SABEN que son robots, y aunque pudiesen tener capacidades lógicas y motoras superiores a las humanas no tienen la imaginación ni la creatividad, ni siquiera la iniciativa suficiente para llevar una sociedad hacia delante. Es un tema que se trata en el libro que he mencionado "Los Robots del Amanecer", en que se deja claro que un mundo gobernados por robots es un mundo condenado a la más absoluta decadencia. Un mundo que no puede avanzar.

    La posibilidad de un robot megalómano es imposible, Asimov a menudo trata este tema en sus libros, y llega a la conclusión, siempre, de que los humanos son superiores porque son capaces de dominar la irracionalidad, que a menudo nos lleva a senderos desconocidos de sabiduría.

    Por otra parte, no son sólo las tres leyes de la robótica las que operan en un cerebro positrónico, si no que también hay potenciales cuantitativos. ¿Qué significa esto? Que un robot al verse en una situación en que para evitar el incumplimiento de la primera ley se viese obligado a inclumplirla de nuevo, por ejemplo, un dilema de vida o muerte con dos seres humanos. El robot haría un balance para averiguar cuál de las dos opciones es menos dañina, y en consecuencia actuar. Si tuviesen el mismo valor, la solución sería escogida al azar. Esto es algo que explica el roboticista Han Fastolfe en uno de los libros hablando de los robots más avanzados, mientras que los robots más primitivos habrían tenido un robo-bloqueo.

    Sinceramente, creo que las leyes son perfectas tal cual están. Tampoco me gustan demasiado las añadidas por otros escritores, ya que Asimov deja claro en su saga que los robots NO pueden mentir, y que siempre darán a entender su condición de robot.

    Y aunque Asimov se dio cuenta de los fallos de las leyes, los fue solucionando de forma muy natural, como antes he expuesto, conforme los robots se hacían más avanzados.
  • nixianonixiano Gonzalo de Berceo s.XIII
    editado julio 2011
    He sido asiduo a los libros de Asimov desde que leí El Fin de la Eternidad hace ya más de veinte años. Pero siempre me ha parecido que el asunto de las tres leyes es de una inocencia suprema. Asimov sabía mucho de física, de lógica y de ciencias en general, pero de la naturaleza humana al parecer muy poco. Estoy seguro que el primer uso que se le va a dar a un robot humanoide medianamente funcional va a ser como soldado en la industria bélica, así que la primera ley ya se fue por el caño. El que invierta en estos robots tampoco va a permitir que esta máquina se autodestruya para salvar a una persona, pues la inversión está primero. Ninguna fábrica implantaría las tres leyes en el cerebro "positrónico" de sus creaciones, ya que busines are busines.

    En fin, puede que Asimov tenga mejor opinion de la humanidad que yo, pero creo que en realidad lo que él pretendía era establecer una base axiomática con la que realizar juegos de lógica en sus innumerables y autorrepetitivos cuentos de robots.

    Adoro sus historias de viajes en el tiempo, viajes interplanetarios, universos paralelos, etc. (la saga de la Fundación la leí completa dos veces), pero de sus compilaciones de robots aguanto los dos o tres primeros cuentos y luego me duermo. ¿No será algún dispositivo "positrónico" para adentrarse en mi subconciente? No lo sé.
  • Susan CalvinSusan Calvin Anónimo s.XI
    editado julio 2011
    La verdad es que yo aún no había tocado el tema de si Las Leyes son o no son aplicables a la vida real, sólo quería exponer que en sus historias son indiscutibles.

    Si hablamos de la vida real en mi humilde opinión ni siquiera creo que los robots humanoides tuviesen ningún futuro. La forma humana no es funcional, se supone que los robots se crearían para hacer todo aquello que nosotros no podemos hacer. Por tanto la forma que se les daría sería sin duda la más óptima. Además la forma humanoide crearía paranoia en una cantidad enorme de gente que estaría en contra de los robots por la única razón de que tienen cara, de que tienen forma humana. La inquietud sería terrible.

    Por otra parte, nadie sospecharía que una máquina amorfa especializada en crear unas piezas específicas en una cadena de producción pudiese albergar vida o malas intenciones, ¿por qué? porque no tiene cara. No sé si me explico. El ser humano consideraría al robot una amenaza porque al darle forma humana lo estaría colocando a su nivel, lo estaría convirtiendo en un competidor. Por no decir que de tontos está el mundo lleno y mucha gente vería cosas diabólicas donde no las hay.

    Creo que a la larga serían más un problema que un beneficio, es decir, estoy segura de que se crearán por el simple hecho de que podemos hacerlo y es una idea con la que el ser humano siempre ha soñado, pero no creo en su producción en masa. Y si llegasen a producirse no tendrían esas leyes, eso seguro.

    Y estoy de acuerdo contigo Nixiano, sus historias de viajes en el tiempo y de intercambio de materiales entre universos, y la misma Fundación, superan con creces a sus historias sobre robots que al fin y al cabo siempre acaban con lo mismo.
  • nixianonixiano Gonzalo de Berceo s.XIII
    editado julio 2011
    De acordeón de punta a cabo.
  • edmundo_dantesedmundo_dantes Anónimo s.XI
    editado julio 2011
    De hecho, existen ya unas novelas en las que se modifican las Tres Leyes: es la trilogía Caliban - Inferno - Utopía.

    Están muy inspiradas en Asimov, y en concreto en las tres novelas en las que Elijah Baley colabora con R. Daneel Olivaw (Bóvedas de Acero, El sol desnudo, Los robots del Amanecer). Pero aquí vemos a unos robots que ya no son positrónicos, son de una nueva tecnología, robots gravitónicos. Esto implica que no tienen implantadas las Tres Leyes, son una pizarra en blanco, y lo que hacen es implantarles unas Nuevas Leyes, menos rígidas, son robots con mayor libertad de acción.

    Aunque sean una imitación, estas tres novelas me parecieron buenísimas, captan muy bien el espíritu del original.

    Por lo demás, he leído y releído hasta la saciedad todas las novelas de Asimov, y estoy de acuerdo en que un robot asimoviano nunca se consideraría a sí mismo superior (ni siquiera igual) a un ser humano. Otra cuestión es que la Ley Cero le lleve a convertirse en un "Deus ex machina", gobernando a la Humanidad, sin que ésta lo sepa, a fin de protegerla.

    Y la idea de los aristócratas puede considerarse que ya está presente en las novelas de Asimov, con los espaciales de Aurora, Solaria, etc. ("Bóvedas de acero", "El sol desnudo"). Esos espaciales son los aristócratas de esa sociedad, frente a los terrícolas, y hay robots (en particular los solarianos) cuya definición de ser humano es tan estricta, que sólo reconocen como tal a alguien con acento de Solaria.

    Porque claro, las Tres Leyes hablan de ser humano, pero ¿qué es un ser humano? Eso depende de la definición que el robot tenga implantada en su programación.
  • EsternocleidoEsternocleido Pedro Abad s.XII
    editado octubre 2011
    Las nuevas leyes de la robotica, menos poéticas pero mas realistas:

    -Un humano no puede emplear un robot sin conocer las normas legales y profesionales de seguridad y ética robot del sistema de funcionamiento humano-robot.
    -Un robot debe responder a los seres humanos de manera apropiada a sus programación.
    -Un robot debe estar dotado de suficiente autonomía para proteger su propia existencia siempre y cuando no entre en conflicto con las leyes anteriores.
  • FabrizzioFabrizzio Juan Boscán s.XVI
    editado octubre 2011
    Las leyes de Asimov son esencialmente divergentes; se contradicen pero para evitar discrepancias le otorga a una ley más importancia que otra. Plagias a Asimov, pero fundamentalmente las leyes son así, puedes cambiarlas un poco, pero no del todo.
  • John KimonsterJohn Kimonster Fernando de Rojas s.XV
    editado noviembre 2011
    Anarko95 escribió : »
    Obviamente los de mente mas ágil se darán cuenta de que hay fallas en las leyes a pesar de que se puede hacer poco para mejorarlas. Por ejemplo, si un robot se ve en la situación de que haga lo que haga un ser humano sea dañado, su cerebro explota pues el dilema es demasiado para él. Si a los robots se les da la capacidad de juzgar cual desición tomar o a que ser humano seguir, se va a basar en las capacidades del ser humano. Ahora bien, el ser humano es abstracto, pues dejando de lado las diferencias físicas, un ser humano es como un robot avanzado.

    No es abstracto, es analógico.
    Anarko95 escribió : »
    El problema radica en que como los robots piensan de acuerdo a los estándares humanos, se consideran seres humanos y mas aún se consideran mejores, pues está claro que un robot es superior a un humano normal. Por ende, solo aplicaran las leyes a otros robots, por lo que la palabra "humano" se saca de las leyes y se puede reemplazar por robot. Establecer un control mental a los robots para que no piensen en las cosas que ya dije, solo puede ser hecho por humanos, no por una máquina, por lo que tener una persona por robot sería un poco tonto. Y claro, robots menos avanzados no pensarían en estas cosas, pero los haría mas inútiles.

    Los robots se someteran a las normas en las que sean fabricados, siempre y cuando hayan sido bin planteadas en algun lenguaje de programación existente, y fisicamente nunca podrá superarlas.

    Ahora, el verdadero problema es si el equivalente a las leyes de la robotica va a encontrarse en el OS, en el kernel o en el firmware. Y de ahi va a depender que tan vulnerables serían al deterioro las alteraciones de humanos y de virus informáticos. Entre otras cosas...


    Anarko95 escribió : »
    1) Un robot nunca debe dañar a un aristócrata o, por inacción, dejar que un aristócrata sea dañado
    2) Un robot siempre debe obedecer a un aristócrata mientras esto no entre en conflicto con la primera ley
    3) Un robot siempre debe cuidar de sí mismo mientras esto no entre en conflicto con la primera y segunda ley
    4) Un robot siempre debe obedecer a un Funcionario mientras esto no entre en conflicto con las tres primeras leyes

    Aquí se debe considerar a aristócrata como un sujeto que forma parte de la élite ya mencionada y a un funcionario como un sujeto que trabaja para esta élite sea como científico o como policía secreta.

    pronostico que dentro de 20 años las computadoras serán 10 veces más rápidas y 200 veces más grandes y tan costosas que sólo los reyes más ricos de europa podrán comprarlas - Profesor Frink entre los 70s y los 80s, Los Simpson
    Anarko95 escribió : »
    en realidad traté en un principio de no pensar en esas reglas, pero si lo piensas bien son incambiables. Porque si alguien se pusiera a hablar de maquinas industriales o computadores o asimo es muy fome, asi que pensemos en el típico robot. Y respecto al típico robot, no es posible inventar otras leyes, a lo mucho modificarlas...

    Siempre es posible inventar mas, sin importar la epoca... O no, quizas actualmente sea mas facil inventar e inovar de lo que era el 1950.
    Susan Calvin escribió : »
    Por otra parte, nadie sospecharía que una máquina amorfa especializada en crear unas piezas específicas en una cadena de producción pudiese albergar vida o malas intenciones, ¿por qué? porque no tiene cara. No sé si me explico. El ser humano consideraría al robot una amenaza porque al darle forma humana lo estaría colocando a su nivel, lo estaría convirtiendo en un competidor. Por no decir que de tontos está el mundo lleno y mucha gente vería cosas diabólicas donde no las hay.

    y a mucha gente se le ocurrirían ideas diabolicas con los recursos menos insospechados.
  • PosidonaPosidona Pedro Abad s.XII
    editado noviembre 2011
    Mi experiencia con la literatura sobre robots es de cero. Pero justamente ayer estuve viendo un corto animado que hicieron en Rusia en 1984 sobre un texto de Ray Bradbury.

    A lo mejor os interesa verlo

    http://www.youtube.com/watch?v=VW5HgPnsHOc&feature=BFa&list=LL6VCiB3aPYwoef4BD26rtXA&lf=mh_lolz
  • CirculoCirculo Fernando de Rojas s.XV
    editado noviembre 2011
    Ahora, el verdadero problema es si el equivalente a las leyes de la robotica va a encontrarse en el OS, en el kernel o en el firmware. Y de ahi va a depender que tan vulnerables serían al deterioro las alteraciones de humanos y de virus informáticos. Entre otras cosas...
    ¿Y qué acaso el kernel no es parte del Sistema Operativo?
    Yo no asumiría ni siquiera que un "androide" va a tener necesariamente la misma arquitectura que un computador actual, creo que especular a partir de esa hipótesis tiene poco sentido.
    Hasta el momento no hemos desarrollado máquinas con voluntad propia ni que se salga de su propósito, y creo que el día que pase algo así definitivamente va a cambiar el mundo. Ahí podremos preguntarnos sobre todas las implicaciones filosóficas que tendrá haber creado seres inteligentes.
  • MichelAngeloMichelAngelo Gonzalo de Berceo s.XIII
    editado noviembre 2011
    Círculo, yo no veo tan descabellado estructurar a un robot con inteligencia artificial de una forma similar a un ordenador. Al fin y al cabo, una base de inteligencia artificial siempre se realiza con códigos propios de la programación en un ordenador doméstico (C/C++, VB, SimKin), y son simulaciones bastante aceptables a veces (vasta ver la inteligencia artificial desarrollada para los videojuegos de última generación)
    El quid de la cuestión sería crear algún tipo de codificación capaz de crear nuevas variables en lugar a situaciones vividas, y con respuestas múltiples en cada caso.
    De una forma básica, eso se haría en la estructura de un ordenador común: una placa base que sirva de conexión, un disco duro que sirva de memoria, un sistema operativo que sirva de "personalidad", a la par que soporte de la creación de variables.

    En fin, que yo no lo veo absurdo en absoluto.
  • juanchojuancho Francisco de Quevedo s. XVII
    editado noviembre 2011
    Un sistema de esa naturaleza debe ser capaz de aprender de sus errores.
    Lo aprendido no lo debe almacenar en un disco duro o en una memoria convencional. Debe ser una memoria como la memoria humana. La memoria humana es asociativa.
    La miniaturización de componentes no es una solución, la solución corresponde a un trabajo de biología celular, anatomía humana y electrónica.
    Estimo que en cincuenta años se podrá tener algo mejor que un robot. El cual es un juguete.
  • zefirozefiro Anónimo s.XI
    editado noviembre 2011
    Yo actualmente escribo una novela futurista en la cual uso las leyes de la robotica de Isaac Asimov, ciertamente son las leyes mas acertadas, en las mencionadas debes incluir la llamada ley 0 la cual protege a la humanidad sobre un individuo..
    Difiero en el pensamiento de algunos que en el momento en que un robot no encuentra respuesta o entra en un bucle de informacion sin salida ¡explotará! en mi opinion simplemente colapsaria de la misma manera en la que una Pc lo hace.
    Doy la razonen el hecho de que solo ciertas personas lograrian tener robots a su servicio, y en mi opinion esto a la larga crearia una diferencia social gigantesca ya que los robots proporcionarian aun mas riquezas al que ya les tenia; es uno de los temas que trato en mi libro, y de como esto crea una sociedad distorcionada ; así mismo como se inicia una revolucion inminente por parte de los humanos y los robots que logran salirse de las tres leyes... si les interesa les dejo mi link, ya que la estoy publicando Online.

    http://mecanicautomata.blogspot.com/

    Sin embargo no creo que las leyes deban definirse solo a los burocratas o ciertos sectores, esto violaria los derechos humanos de principio a fin y la opinion publica lucharia contra esto además, los ingenieros en robotica intentarian vender robots domesticos o personalizables, así que se beneficiarian de poder mantener un perfil de buen servicio y confianza (auqnue esto no fuese del todo cierto.. o Acaso Windows te dice las innumerables fallas de su sistema operativo al vendertelo ?? ) ;)
  • John KimonsterJohn Kimonster Fernando de Rojas s.XV
    editado noviembre 2011
    Circulo escribió : »
    ¿Y qué acaso el kernel no es parte del Sistema Operativo?

    No que yo sepa. Si mal no recuerdo el kernel es el que rige la compatibilidad del Hardware con el sistema operativo, como con los Linux. Casi todos son compatibles entre si e incluso comparten aplicaciones, pero eso no significa que sean el mismo OS.
    Circulo escribió : »
    Yo no asumiría ni siquiera que un "androide" va a tener necesariamente la misma arquitectura que un computador actual, creo que especular a partir de esa hipótesis tiene poco sentido.

    Pues hace como medio año, recuerdo que un sujeto comentaba que en el futuro la mayor parte del transito de datos del internet va a consistir en la comunicación de los aparatos domesticos que van a pasarsela enviando y recibiendo datos en masa y de manera automatica con el fin de "mejorar" el servicio que dan (por ejemplo un refrigerador que se da cuenta de cuando se acabó la leche así que hace la compra automatica en el supermercado, o un telefono que solicita el menú del restaurant al que el dueño está entrando, para que éste no pierda tanto tiempo en decidir que va a pedir).

    Es decir, lo que importa es la compatibilidad y ¿que mejor forma de tener un androide actualizado que mantenerlo 100% conectado?
    Circulo escribió : »
    Hasta el momento no hemos desarrollado máquinas con voluntad propia ni que se salga de su propósito, y creo que el día que pase algo así definitivamente va a cambiar el mundo. Ahí podremos preguntarnos sobre todas las implicaciones filosóficas que tendrá haber creado seres inteligentes.

    Pero pensandolo bien... ¿es realmente necesario crear seres que parezcan humanos? ¿no es mas bien que tenemos alguna especie de complejo de Pinocho con el que queremos sentirnos dios solo por "crear vida"?

    O quizas nos frustra tanto nuestra ineptitud a la hora de tratar a otros humanos que pretendemos crear un sirviente que cumpla nuestras necesidades sociales sin que nosotros tengamos que cumplir las suyas (queremos buenos hijos sin ser buenos padres o buenos amigos sin querer serlo nosotros mismos)

    ¿En que situación de la vida real sería util o necesario un robot con caracteristicas humanas fisicas y mentales? Es decir. Ya tenemos a muchos humanos que son humanos como para que necesitemos añadir humnos falsos. ¿sería mejor para la industria? Ya hay mucha gente desempleada por causa de los robots y las computadoras y mucha mano de obra regalada como para necesitar siquiera emularlos.

    Igual sucede con los robots militares. Cada día nacen cientos de miles de personas que pueden servir de carne de cañon para pleitos inutiles por mucho menos dinero y a nadie parece conmoverle.

    ¿que tal Muñecas sexuales como las de Ghost In the Shell? Pues en provincias pobres de paises como aqui en México uno le puede comprar una esposa a los propios padres de ella por 10,000 pesos (como 500 euros)

    [OCULTAR]
    O dicho en otras palabras:

    ¿para que necesitamos ésto...

    [OCULTAR]Genibo_w[1].jpg[/OCULTAR]

    ...si basta con asomarse a nuestras calles para ver a miles y miles de estos otros muertos de hambre y de los que nadie se quiere encargar?

    [OCULTAR]dsc07996aw92.jpg[/OCULTAR][/OCULTAR]
    MichelAngelo escribió : »
    De una forma básica, eso se haría en la estructura de un ordenador común: una placa base que sirva de conexión, un disco duro que sirva de memoria, un sistema operativo que sirva de "personalidad", a la par que soporte de la creación de variables.

    En fin, que yo no lo veo absurdo en absoluto.

    Pues mi computadora desde la que escribo ésto ya no tiene tarjeta de video, ni de red, ni de audio. sino que todo viene integrado en la tarjeta madre, lo que facilita su produccion y la hace mas barata (cuesta como un tercio lo que una PC estandar con todo eso), pero a cambio, lo mas seguro es que cuando me falle uno de los componentes, tenga que deshecharla completa.

    Igual sucede con los telefonos celulares. Excepto por la trjeta SIM y la tarjeta multimedia, todo el parato viene integrado, y de esa forma es mas dificil que un civil normal pueda alterar sus componentes.

    En ese caso existe la posibilidad de que el cuerpo robotico y el cerebro (integrado y deshechable) se fabriquen por separado, para poder cambierlo cuando salga uno nuevo.
    juancho escribió : »
    Un sistema de esa naturaleza debe ser capaz de aprender de sus errores.

    No. Sería mas eficiente que la empresa encargada de diseñarlos haga controles periodicos de mercado en las cuales los clientes o el software del robot puedan informarle cuales son las fallas del modelo, para que en laboratorios especializados se hagan las correcciones competentes y se produzcan actualizaciones (de Hardware o de Software) que eliminen el error.

    De esa forma, al ser corregida una falla esta corrección beneficie a todos los dueños y no solo al del robot que haya "aprendido" a corregirla.
    juancho escribió : »
    Lo aprendido no lo debe almacenar en un disco duro o en una memoria convencional. Debe ser una memoria como la memoria humana. La memoria humana es asociativa.

    De nuevo pregunto. ¿para que?
    juancho escribió : »
    La miniaturización de componentes no es una solución, la solución corresponde a un trabajo de biología celular, anatomía humana y electrónica.

    Pero mas parece que los informaticos encargados del desarrollo de hoy en día parecen estar mas ilusionados con la ide de crear computadoras cuanticas, asi que no creo que se interecen en guardad datos por medios biologicos (que ademas habría que sustentar, mientras que los atomos se mantienen solos)

    Esperen! Eso me lleva a otra cosa.

    Piensen... ¿si emularamos a las neuronas en todas sus funciones, no terminarian produciendo una maquina tan poco autosuficiente como el cerebro humano? Es decir, para lo que un cerebro hace, requiere demasiado oxigeno y demasiada azucar, y eso sin contar de que puede morir si no se le administran continuamente Sodio y Potasio (¿si era potasio? no recuerdo muy bien), ademas de que no son capaces de obtener oxigeno de reserva a partir de romper azucar como el resto de nuestro cuerpo (glucosa => acido pirubico => acido lactico + oxigeno), asi que si se le corta el flujo de oxigeno comienza a morir.

    Al final tendriamos un resultado bastante inutil.
    zefiro escribió : »
    Difiero en el pensamiento de algunos que en el momento en que un robot no encuentra respuesta o entra en un bucle de informacion sin salida ¡explotará! en mi opinion simplemente colapsaria de la misma manera en la que una Pc lo hace.

    O como lo hace una PC normal, cuando su memoria RAM está saturada. Hace un volcado, reinicia el sistema y no recuerda nada de lo que estaba haciendo hasta la ultima vez que se apagó correctamente.
  • zefirozefiro Anónimo s.XI
    editado noviembre 2011
    Compañero Jhon, creo que es irrelevante si queremos o no crear robot o androides semejantes a los humanos, de un momento a otro sucederá, tu bien lo definias al expresar que tenemos el complejo de pinocho; por ello creo que entonces deberiamos de analizar aun mas lo que seria la complejidad de un posible futuro donde deban coexistir interaccione ssociales entre robots y humanos; inclusive en casos en los cuales se denotará racismo y fanatismo por ellos, y de como las leyes de la robotica deben de plantearse siempre para salvaguardar la integridad de un ser humano..
  • John KimonsterJohn Kimonster Fernando de Rojas s.XV
    editado noviembre 2011
    No, no. Yo digo que los robots y los viajes en el tiempo son un freno al buen desarrollo de la ciencia-ficción (y la razón a mi parecer de que ya casi no se produzcan ideas originales dentro del género), ya que por su atractivo friki todos aquellos que intentan escribir se cuelgan de esos temas como muletillas que les impiden ver mas allá.

    Mira por ejemplo, el caso de los viajes espaciales. Desde el siglo XIX ya había escritores que proyectaban con bastante precisión los viajes espaciales (propulsión a chorro, cohetes con forma de cigarro, despeges desde lo que hoy en día es el estado Florida), y por un tiempo la carrera espacial se movió para cumplir esa meta, pero luego de un tiempo y cuando descubrieron los bemoles de tener una industria espacial establecida (accidentes imposibles de reparar, los efectos de los rayos cosmicos y el aislamiento de los astronautas, los problemas de comunicación debidos a la distancia y la interferencia del sol entre planetas), que eran problemas en los que nadie había pensado entonces porque no tenían como conocerlos resultó que todo el sueño espacial se fué a espera indefinidamente y sin esperanzas de aquel sueño del iglo XIX (la exploración de humanos en marte está planeada para la decada de los 40s, mientras que el presupuesto militar de los Estados Unidos bastaría para mandar de 3 a 5 expediciones de aquí al 2020, y de los "viajes comerciales" que se están abriendo la mayoría son un fraude que venden la idea de que llevan al turista al espacio pero solo lo vuelan en un avión por encima de la estratosfera y le dan vueltas un rato).

    Yo creo que, claro que va a haber robots con apariencia humana y maquinas cuyo proposito sea emular el comportamiento humano, pero pasado cierto tiempo no se van a juntar ambos proyectos o se van a separar para no volver a juntarse porque van a ser inutiles e inproductivos.
  • zefirozefiro Anónimo s.XI
    editado noviembre 2011
    Es cierto, muchos autores se han enfrascado en las ideas pasadas y no se han aventurado a seguir más allá en el camino de la ciencia ficción, hecho lamentable, pues esta rama da para muchisimo más...
    Si creo que ambas ramas (robotica y exploración espacial) se uniran en ciertos aspectos, al menos opino que sería provechoso este desarrollo en conjunto.
    creo que queda de parte de nosotros la nueva generación plantear las nuevas bases de la ciencia ficción, en mi particular como escritor y aspirante a ser publicado me tomo este punto a personal, espero mejorar para el disfrute de mis lectores.
  • VagoVago Pedro Abad s.XII
    editado noviembre 2011
    Pequeño comentario:
    -Falta la ley 0: Ningun robot puede dañar a la Humanidad, o por Inaccion, hacer que la humanidad sea llamada (Planteada en Robots e Imperio, creo, no me acuerdo bien)

    ademas, la cuarta ley (del primer post) esta implicita en la 3ra Ley. un robot diseñado para exploracion cientifica obedece primeramente a un cientificio, luego al resto de las personas.

    Y tus dilemas de la psicologia robotica: Lee Yo robot. Casi la mitad estan planteados. Ademas, teniendo en cuenta un presente donde hay mucha disdencion sobre los avances tecnologicos extremos, en el futuro, si alguien saca un robot SIN la primera ley... se desataria el caos


    Basicamente Asimov (segun yo pienso) creo las tres leyes de la robotica, y despues las expandio, SIN modificarlas. tal y como surgirian los problemas en la vida real
  • PoniwilPoniwil Anónimo s.XI
    editado enero 2012
    hola que tal estuve leyendo sus comentarios la verad me parecen muy buenos por que llegan a un punto donde editan las leyes para algo mas moral que solo de avanze cientifico.

    las leyes de la robotica son muy complejas y los robots que creamos en la actualidad son solo programados para realizar algo y repetitivo.

    si los robots se deben regir por esas leyes entonces no tenemos ni un robot por que hasta ahora no hay un robot capaz de saber cuando hace daño, y lo principal no entiende nuestro lenguaje para poder hacernos caso, el robot necesita un lenguaje especial el de programacion.

    ademas otra ley es acerca de su proteccion lo cual ya tiene que ver algo mas soicsticado lo que es el "sentir" un robot para protegerse debe sentir el medio externo asi como el interno para que el se cuide.

    en conclusion si las leyes de la robotica se mantienen tal cual son llegaran a seguirse dentro de mucho tiempo por que practicamente un robot tendria que ser como una persona para saber que hacer y que no hacer.
  • Hill94Hill94 Anónimo s.XI
    editado enero 2012
    Son 3 leyes que rigen al robot pero en casos entrarian en conflictos entre si mismas ya q ue se algun asaltante daña a un humano el lo tiene que proteger pero entraria en conflicto ya que no debe dañar a la humanidad, tendria que haber alguna ley o algo que lo haga analizar la situacion sin que entre en conflicto dentro de sus leyes basicas que rigen el comportamiento de dicho robot y en la actualidad esas leyes se han eliminado ya que algunos robots estan echos para matar en el campo militar asi que practicamente esas leyes estaria un poco dificil poderlas realizar sin que haya conflictos con todas las leyes que lo rigen
  • AlexeikAlexeik Anónimo s.XI
    editado enero 2012
    Con lo que lei comprendo que le falta algo porque si lo planteamos digamos que hay robots que puedan hacer auto suficiente entramos en comflictos con las leyes porque que tal si un humano quiere dañar a otro humano entra en comflicto yo digo que se deberia aderir una nueva ley en la cual diga que el robot pueda evalar la situacion y tomar la opcion mas adecuada, pero si nos regresamos a la realidad los robots serian utilizados para dañar a otro ser humano basicamente las leyes no estan siendo respetas ademas como todo siempre tienen defectos se noten o no siempre son comflictivas para unos o para otros asi dichas leyes siempre estarian en conflicto constante.
  • zero2236zero2236 Anónimo s.XI
    editado enero 2012
    "Ley cero"
    "Un robot no puede causar daño a la humanidad o, por
    inacción, permitir que la humanidad sufra daño."
    Esta ley aparece por primera vez en “Robots e Imperio” pero sin alterar las
    3 primeras leyes de Asimov, las cuales entran en conflicto una con la otra y tomando en cuenta ahora la ley 0, y dejando a los robots la libertad de decidir la mejor opción siguiendo lo parámetros establecidos por estas llevarían a la humanidad a ser gobernada por los robots con el único fin de que no se maten entre si, quebrantando sus propias leyes solo para evitar un daño mayor que el que la humanidad se causa a si misma...
    En fin la "Ley cero", prioriza a la humanidad frente al ser humano, permitiendo la destrucción del ser humano para salvar a la humanidad.
  • gladiador16gladiador16 Anónimo s.XI
    editado enero 2012
    Bueno como se ha comentado anteriormente estas tres leyes tienes errores, por lo que, si abundaran mas robots entre nosotros habria desastres porque el cerebro del robot no podria procesar el dilema y entonces explotaria, por lo que en un futuro cuando los servicios mas basicos sean realizados ya por robots y no por humanos estas leyes definitivamente desaparecerian o en su defecto se modificarian.
    con la ley cero se le da mas equilibrio a este dilema de leyes, pero aun asi no es muy seguro, entonces pienso que como ya lo han mencionado, los robots deberian obedecer solo a algunas personas en especifico de esta manera no habria fallo en su sistema ya que solo las personas autorizadas podrian mandarlos, aunque esas personas deberian pasar por muchas pruebas para asegurar que no trataran de usar a los robots para hacer mal a los demas humanos.
  • amparo bonillaamparo bonilla Bibliotecari@
    editado enero 2012
    Este tema ha dado para que más de uno dé su punto de vista y chao, bienvenidos a todos, los esperamos con más aportaciones;):):):p
  • HeeganHeegan Anónimo s.XI
    editado enero 2012
    Bueno, mi experiencia en el mundo laboral, (metalurgia sobre todo, como operario, no ingeniero ni nada parecido), me permite decir que las tres leyes de la robótica ya existen y se aplican a todo aquello que construimos. La maquinaria que se usa en el metal, (y en la madera, y en la albañilería...), ya tiene intrínsecas estas tres leyes. Pongamos una plegadora de chapa de metal, una maquina peligrosa. Cada vez está más evolucionada para impedir hacer daño a los usuarios, los "humanos", con sistemas elaborados de protección por infrarrojos, computadoras añadidas para el funcionamiento lo más autónomo posible y un buen montón de medidas de seguridad. Eso cumple en la medida de lo posible, la primera ley. Por supuesto, tu puedes poner la mano en la matriz de plegado y pisar el pedal "ordenando" a la maquina que trabaje aunque esto te vaya a costar los dedos. Dados los sistemas de seguridad, (que se pueden sortear), la maquina no obedecerá, y cumplirá la segunda ley. Por último, una maquinaria tan delicada es cara y difícil de reparar, por tanto se cuida a si misma, dando alarmas sobre el nivel de aceite, fallas en la matriz, etc... pero sin entrar en conflicto con las dos leyes primeras.

    Gracias por la atención.

    Heegan.
  • nixianonixiano Gonzalo de Berceo s.XIII
    editado enero 2012
    Heegan escribió : »
    Bueno, mi experiencia en el mundo laboral, (metalurgia sobre todo, como operario, no ingeniero ni nada parecido), me permite decir que las tres leyes de la robótica ya existen y se aplican a todo aquello que construimos. La maquinaria que se usa en el metal, (y en la madera, y en la albañilería...), ya tiene intrínsecas estas tres leyes. Pongamos una plegadora de chapa de metal, una maquina peligrosa. Cada vez está más evolucionada para impedir hacer daño a los usuarios, los "humanos", con sistemas elaborados de protección por infrarrojos, computadoras añadidas para el funcionamiento lo más autónomo posible y un buen montón de medidas de seguridad. Eso cumple en la medida de lo posible, la primera ley. Por supuesto, tu puedes poner la mano en la matriz de plegado y pisar el pedal "ordenando" a la maquina que trabaje aunque esto te vaya a costar los dedos. Dados los sistemas de seguridad, (que se pueden sortear), la maquina no obedecerá, y cumplirá la segunda ley. Por último, una maquinaria tan delicada es cara y difícil de reparar, por tanto se cuida a si misma, dando alarmas sobre el nivel de aceite, fallas en la matriz, etc... pero sin entrar en conflicto con las dos leyes primeras.


    Yo también tengo experiencia con maquinaria, muchas de control automático o CNC (que son los robots industriales actuales) y no se me había ocurrido este punto de vista. Creo que Heegan tiene mucha razón y esto resalta lo lógicas y básicas que son las tres leyes. Pero lo que a mí me causa dudas es que si llegaremos al punto que un robot sacrifique su propia integridad o incluso su existencia para cumplir las leyes. Creo que ahí es donde se juega la trama de los relatos robóticos de Asimov.
  • HeeganHeegan Anónimo s.XI
    editado enero 2012
    Totalmente de acuerdo contigo, Nixiano.

    De hecho hay un cuento de Asimov, no robótico, en el que los humanos han olvidado las matemáticas, y son las computadoras las que fabrican nuevas y más sofisticadas computadoras. Un pequeño funcionario, por placer, descubre las leyes básicas de la matemática, y lo utiliza como juego, pero uno de sus superiores ve en ello algo mejor; si el hombre sabe usar las matemáticas, se podrían sustituir las carísimas computadoras por pilotos de naves espaciales en la guerra, y es así como se comienza a investigar la matemática teórica prescindiendo de la calculadora de mano. El pobre hombre creo que termina por suicidarse. (No recuerdo el título del cuento, lo siento).

    Así que es muy posible que llegue el día en que sea más barata la vida humana que la maquinaria que manejamos.

    Heegan.
Accede o Regístrate para comentar.


Para entrar en contacto con nosotros escríbenos a informa (arroba) forodeliteratura.com