Me llamo Patricia. Cuando comencé el podcast, dejé claro que quería compartir ideas, a modo de despertar la curiosidad. Sígueme para descubrir cosas nuevas.
Para el episodio de hoy, dentro de la sección, RATÓN DE BIBLIOTECA, Isaac Asimov y las antologías "fundacionales" y "robóticas"
El famoso autor estadounidense de obras de ficción creó las tres leyes de la robótica, con las que pretendió normalizar la relación entre el ser humano y los robots. Además, algunas de sus predicciones de futuro se han hecho realidad.
Entre sus grandes obras se encuentra las antologías "fundacionales" y "robóticas", una sola obra nueve relatos cortos publicados en la década anterior en una antología que llamó "Yo Robot".
Asimov insertó , así, sus tres famosas leyes de la robótica:
1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sea dañado. Aquí me acordé de "2001 , Odisea en el espacio", en el sentido de que , con tanta orden, podrían rebelarse.
2. Un robot debe obedecer las órdenes dadas por un ser humano, excepto cuando tales órdenes entren en conflicto con la Primera Ley. Ratifico lo anterior
3. Un robot debe proteger su propia existencia hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley. Hasta que un loco ingeniero lo impida.
Dan miedo, pero ¿no parece estar hablando de "Inteligencia Artificial"?
Y con esto concluyo el episodio de hoy, ¡nos vemos en el próximo!
Si tienes algún comentario o sugerencia para futuros episodios, puedes escribirme un comentario.
My name is Patricia. When I started the podcast, I made it clear that I wanted to share ideas, to spark curiosity. Follow me to discover new things.
For today's episode, within the BOOKWORM section, Isaac Asimov and the "Foundational" and "Robotic" Anthologies
The famous American fiction author created the three laws of robotics, with which he sought to normalize the relationship between humans and robots. Moreover, some of his predictions for the future have come true.
Among his great works are the "Foundational" and "Robotic" anthologies, a single work of nine short stories published in the previous decade in an anthology he called "I, Robot."
Asimov thus included his three famous laws of robotics:
1. A robot may not injure a human being or, through inaction, allow a human being to come to harm. Here I was reminded of "2001: A Space Odyssey," in the sense that, with so many orders, they might rebel.
2. A robot must obey the orders given it by a human being, except where such orders would conflict with the First Law. I reaffirm the above.
3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law. Until some crazy engineer prevents it.
They're scary, but doesn't this seem to be talking about "Artificial Intelligence"?
And with that, I conclude today's episode. See you in the next one!
If you have any comments or suggestions for future episodes, please leave me a comment.
Mein Name ist Patricia. Als ich mit dem Podcast begann, wollte ich Ideen teilen und Neugier wecken. Folgen Sie mir und entdecken Sie Neues.
In der heutigen Folge der Rubrik „BÜCHERWURM“ geht es um Isaac Asimov und die Anthologien „Foundational“ und „Robotic“.
Der berühmte amerikanische Romanautor schuf die drei Gesetze der Robotik, mit denen er die Beziehung zwischen Mensch und Roboter normalisieren wollte. Einige seiner Zukunftsprognosen haben sich bewahrheitet.
Zu seinen großen Werken zählen die Anthologien „Foundational“ und „Robotic“, ein Werk mit neun Kurzgeschichten, die im letzten Jahrzehnt in einer Anthologie mit dem Titel „I, Robot“ veröffentlicht wurden.
Asimov fasste darin seine drei berühmten Gesetze der Robotik zusammen:
1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird. Das erinnerte mich an „2001: Odyssee im Weltraum“, in dem Sinne, dass sie bei so vielen Befehlen rebellieren könnten.
2. Ein Roboter muss den Befehlen eines Menschen gehorchen, außer wenn diese Befehle dem Ersten Hauptsatz widersprechen. Ich bestätige das oben Gesagte.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Hauptsatz widerspricht. Bis irgendein verrückter Ingenieur ihn daran hindert.
Sie sind beängstigend, aber scheint es hier nicht um „Künstliche Intelligenz“ zu gehen?
Und damit beende ich die heutige Folge. Wir sehen uns in der nächsten!
Wenn ihr Anmerkungen oder Vorschläge für zukünftige Folgen habt, hinterlasst mir gerne einen Kommentar.
Je m'appelle Patricia. En lançant ce podcast, j'ai clairement indiqué que je souhaitais partager des idées et éveiller la curiosité. Suivez-moi pour découvrir de nouvelles choses.
Dans l'épisode d'aujourd'hui, dans la section BOOKWORM, Isaac Asimov et les anthologies "Foundational" et "Robotic".
Le célèbre auteur de fiction américain a créé les trois lois de la robotique, grâce auxquelles il a cherché à normaliser la relation entre humains et robots. De plus, certaines de ses prédictions pour l'avenir se sont réalisées.
Parmi ses œuvres majeures figurent les anthologies "Foundational" et "Robotic", un recueil unique de neuf nouvelles publié au cours de la décennie précédente dans une anthologie intitulée "I, Robot".
Asimov a ainsi inclus ses trois célèbres lois de la robotique :
1. Un robot ne peut blesser un être humain ni, par son inaction, permettre qu'un être humain subisse un préjudice. Cela m'a rappelé "2001 : L'Odyssée de l'espace", dans le sens où, avec autant d'ordres, ils pourraient se rebeller.
2. Un robot doit obéir aux ordres donnés par un être humain, sauf si ces ordres entrent en conflit avec la Première Loi. Je réaffirme ce qui précède.
3. Un robot doit protéger sa propre existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi. Jusqu'à ce qu'un ingénieur fou l'en empêche.
Ils sont effrayants, mais ne semble-t-il pas s'agir d' "intelligence artificielle" ?
Et sur ce, je conclus l'épisode d'aujourd'hui. À bientôt pour le prochain !
Si vous avez des commentaires ou des suggestions pour les prochains épisodes, n'hésitez pas à me les laisser.
اسمي باتريشيا. عندما بدأتُ البودكاست، أوضحتُ رغبتي في مشاركة الأفكار، وإثارة الفضول. تابعوني لاكتشاف كل ما هو جديد.
في حلقة اليوم، ضمن قسم "دودة الكتب"، إسحاق أسيموف ومختارات "الأساسية" و"الروبوتية"
ابتكر الكاتب الأمريكي الشهير قوانين الروبوتات الثلاثة، التي سعى من خلالها إلى تطبيع العلاقة بين البشر والروبوتات. علاوة على ذلك، تحققت بعض تنبؤاته للمستقبل.
من بين أعماله العظيمة مختارات "الأساسية" و"الروبوتية"، وهي عمل واحد من تسع قصص قصيرة نُشرت في العقد الماضي في مختارات أطلق عليها "أنا، روبوت".
وبهذا أدرج أسيموف قوانينه الثلاثة الشهيرة للروبوتات:
1. لا يجوز للروبوت أن يؤذي إنسانًا، أو أن يسمح، من خلال التقاعس، بإيذاء إنسان. هنا تذكرتُ فيلم "٢٠٠١: ملحمة الفضاء"، بمعنى أنه مع كثرة الأوامر، قد يتمردون.
٢. يجب على الروبوت أن يطيع الأوامر الصادرة إليه من الإنسان، إلا إذا تعارضت هذه الأوامر مع القانون الأول. أؤكد ما سبق.
٣. يجب على الروبوت أن يحمي وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني، حتى يمنعه مهندس مجنون.
إنهم مخيفون، ولكن ألا يبدو أن هذا الحديث عن "الذكاء الاصطناعي"؟
وبهذا، أختتم حلقة اليوم. أراكم في الحلقة القادمة!
إذا كانت لديكم أي تعليقات أو اقتراحات للحلقات القادمة، يُرجى ترك تعليق.
제 이름은 패트리샤입니다. 팟캐스트를 시작했을 때, 저는 아이디어를 공유하고 호기심을 불러일으키고 싶다는 것을 분명히 했습니다. 저를 팔로우하여 새로운 것을 발견하세요.
오늘 에피소드에서는 '책벌레' 섹션에서 아이작 아시모프와 '파운데이션' 및 '로봇' 선집에 대해 이야기하겠습니다.
이 유명한 미국 소설 작가는 로봇의 세 가지 법칙을 만들어 인간과 로봇의 관계를 정상화하고자 했습니다. 게다가 미래에 대한 그의 예측 중 일부는 실현되었습니다.
그의 위대한 작품 중에는 "Foundational"과 "Robotic" 앤솔로지가 있는데, 이는 그가 "I, Robot"이라는 앤솔로지에 10년 전에 발표한 9개의 단편 소설로 구성된 단일 작품입니다.
따라서 아시모프는 로봇의 세 가지 유명한 법칙을 포함시켰습니다.
1. 로봇은 인간을 해치거나, 행동하지 않음으로써 인간이 해를 입는 것을 허용해서는 안 됩니다. 여기서 저는 "2001: 스페이스 오디세이"를 떠올렸습니다. 명령이 너무 많아서 반항할 수도 있다는 의미에서요.
2. 로봇은 인간이 내린 명령에 복종해야 합니다. 단, 명령이 제1법칙과 충돌하는 경우는 예외입니다. 저는 위의 내용을 재확인합니다.
3. 로봇은 제1법칙이나 제2법칙과 충돌하지 않는 한 자신의 존재를 보호해야 합니다. 미친 엔지니어가 막을 때까지는요.
무섭긴 하지만, 이게 "인공지능"에 대한 이야기인 것 같지 않나요?
이것으로 오늘의 에피소드를 마칩니다. 다음 에피소드에서 뵙겠습니다!
향후 에피소드에 대한 의견이나 제안 사항이 있으면 댓글을 남겨주세요
Patricia López Muñoz
Técnico Superior en Animación Sociocultural
Técnico Especialista en Inmigración
Técnico Superior en Integración Social
No hay comentarios:
Publicar un comentario