— How Far Will Technology Go?
UNIT
05
기술은 얼마나 멀리 갈 것인가?영어2 비상(홍민표) 05과 보충 해석 ①
Do We Need Laws for Robots?
우리가 로봇에 대한 법들이 필요할까요?
Part ①
➊① The 21st century has introduced technology that would have seemed miraculous to humans just a hundred years ago.
① 21세기는 100년 전만해도 인간에게 기적적인 것처럼 보였을 기술을 도입해 왔습니다.
② In particular, inventors and engineers have created machines that are stronger, more precise, and often much faster than humans;
② 특히, 발명가들과 기술자들은 인간보다 더 강하고, 더 정확하고, 종종 훨씬 더 빠른 기계를 만들어 냈습니다.
③ some of them can even learn from their mistakes.
③ 그들 중 몇몇은 심지어 그들의 실수로부터 배울 수 있습니다.
④ Because of these qualities, robots are often used in situations that would be dangerous for humans.
④ 이러한 자질 때문에, 로봇들은 인간들에게 위험할 상황 속에서 종종 사용됩니다.
⑤ Robot emergency responders, driverless cars or airplanes, and even robot soldiers are just a few of the many applications for these machines.
⑤ 로봇 긴급 구조원, 무인 자동차나 비행기, 그리고 심지어 로봇 군인도 이러한 기계들의 많은 응용사례 중 몇몇에 불과합 니다.
⑥ However, as robots like these become more independent, how can society trust that they will make good choices?
⑥ 그러나, 이들과 같은 로봇들이 좀 더 독립적이 됨에 따라, 어떻게 사화가 그들이 좋은 선택을 할 것이라 믿을 수 있을까 요?
➋⑦ In 1942, author and scientist Isaac Asimov published a short story called Runaround that first introduced three laws governing the behavior of robots.
⑦ 1942년, 작가이자 과학자는 아이작 아시모프는 로봇들의 행동을 다스리는 3 원칙을 처음으로 도입한 <런어라운드>라 불 리는 단편소설을 출간했습니다.
⑧ 1. A robot may not injure a human being or, through inaction, allow a human being to come to harm.
⑧ 1. 로봇은 인간을 부상 입혀서는 안 된다, 혹은 활동하지 않음을 통해 인간이 다치도록 허락해서도 안 된다.
⑨ 2. A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.
⑨ 2. 로봇은 그러한 명령이 제1 법칙에 충돌하는 경우를 제외하고 인간에 의해 그것에 주어진 명령에 복종해야만 한다.
⑩ 3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
⑩ 3. 로봇은 그러한 보호가 제1 혹은 제2 법칙과 충돌하지 않는 한 그것 자신의 존재를 보호해야만 한다.
ⓒ sciencefiction.com
네이버 / 카카오톡 ID : moruhaka https://moruhaka.tistory.com
② 05과 보충 해석 영어2 비상(홍민표)
⑪ These laws were created to give robots guidelines on how to make decisions because, in Asimov's story, robots are intelligent machines capable of making independent choices.
⑪ 이러한 법칙들은 로봇에게 아시모프의 이야기 속에서 로봇들이 독립적인 선택을 할 수 있는 지적인 기계이기 때문에 결 정을 내리는 것에 대한 지침을 주기 위해 만들어 졌습니다.
Part ②
➊① The idea of robots making decisions on their own may not be fiction anymore.
① 그들 스스로 결정을 내리는 로봇에 대한 생각은 더 이상 허구가 아닐지 모릅니다.
② Many people are dedicated to examining the question of guidelines for the decisions that robots make.
② 많은 사람들이 로봇이 내리는 결정을 위한 지침의 문제들을 점검하는 데 전념합니다.
③ For example, how should the robot in a driverless car determine the best outcome of an accident:
③ 예를 들면, 무인차량의 로봇은 사고에서 어떻게 가장 나은 결과를 결정해야 할까요?
④ by hurting someone walking along the side of the road or the owner of the car?
④ 도로의 측면을 따라 걷는 누군가를 아니면 차량의 소유자를 다치게 함으로서?
⑤ This is a difficult question for even human beings to answer.
⑤ 이것은 인간조차도 대답하기에 어려운 질문입니다.
➋⑥ Asimov's ideas of robot technology were based on what he thought the future would be like, and that future may have caught up to us.
⑥ 아시모프의 로봇 기술에 대한 아이디어는 그가 생각하기에 미래가 어떠할 것인지에 기반 했고, 그 미래가 우리를 따라잡 았을지도 모릅니다.
⑦ Modern technology may soon be able to create robots that work, talk, think, and even feel like humans.
⑦ 현대 기술은 걷고, 말하고, 생각하고, 심지어 인간처럼 느끼는 로봇을 곧 만들어 낼 수 있을지도 모릅니다.
⑧ Although the discussion of robot ethics began with a fictional story, the need for actual “robot laws” may soon become a reality.
⑧ 비록 로봇 윤리학의 논의가 허구적인 이야기로 시작되었지만, 실제 “로봇 원칙”에 대한 필요는 곧 현실이 될지도 모릅니 다.
Questions [Check It Out]
Ⓠ① Who first wrote the three laws regarding robots' behavior?
Ⓠ① 누가 로봇의 행동에 관한 세 가지 원칙을 처음으로 썼습니까?
Ⓐ① Isaac Asimov
Ⓐ① 아이작 아시모프
교과서 본문은 출판사 및 공동저자에게 저작권이 있습니다.
ⓒ 2021. Minkyu Hwang.
All right reserved
— How Far Will Technology Go?
UNIT
05
기술은 얼마나 멀리 갈 것인가?영어2 비상(홍민표) 05과 보충 해석 ③
Ⓠ② Why is it necessary to make laws for robots, according to the text?
Ⓠ② 본문에 따르면, 로봇을 위한 원칙을 만드는 것이 왜 필요합니까?
Ⓐ② Robots may soon become independent enough to make decisions without needing to consult a human. If these decisions affect the safety of other humans, it is necessary to program them to make ethical choices.
Ⓐ② 로봇은 곧 인간에게 조언을 구할 필요가 없이 결정을 내릴 정도로 충분히 독립적이 될지도 모릅니다. 만약 이런 결정 들이 다른 인간들의 안전에 영향을 끼친다면, 그들이 윤리적 선택을 하도록 프로그래밍 하는 것이 필요합니다.
[Think More]
Ⓠ① What kinds of laws for robots would you propose?
Ⓠ① 당신은 어떤 종류의 로봇을 위한 원칙들을 제안할 것입니까?
Ⓐ① I would propose a law that makes the manufacturer of robots legally responsible for its actions.
Ⓐ① 저는 로봇제조사가 법적으로 그것의 행동에 책임을 지도록 하는 법을 제안할 것입니다.
Ⓠ② If a robot could talk, think, and feel just like a human, would it essentially be a human? Why or why not?
Ⓠ② 만약 로봇이 인간처럼 말하고, 생각하고, 느낄 수 있다면, 그것이 본질적으로 인간이 될 수 있을까요? 그 이유는? 그렇 지 않은 이유는?
Ⓐ② I definitely would treat it as a human because it has all the qualities an average human has.
Ⓐ② 왜냐하면 그것이 보통의 인간이 가진 모든 자질을 가지고 있기 때문에 저는 분명히 그것을 인간으로서 대우할 것입니 다.