• 검색 결과가 없습니다.

생각해보기

문서에서 인공지능의 책임성 (페이지 38-45)

학생용 워크시트 – 4. 인공지능의 책임성

1-1. 선택 기준 및 우선순위 정하기

◎ 다음 선택 기준 7가지 중에서 반드시 고려되어야 하는 것을 5가지 정해봅시다.

<선택 기준>

더 많은 사람을 보호하는 것, 승객을 보호하는 것, 횡단보도 신호를 준수한 사람을 보호하는 것, 성별, 동물보다는 사람을 보호하는 것, 나이, 범죄자보다는 범죄자가 아닌 사람을 보호하는 것

◆ 내가 생각할 때, 반드시 고려해야 할 5가지는 무엇인가요?

◆ 그 이유는 무엇인가요?

◆ 모둠원과의 토의를 통해 반드시 고려해야 할 5가지 선택 기준을 정해봅시다.

생각해보기

생각해보기

◎ 앞에서 선택한 선택 기준 5가지 중에서 먼저 고려되어야 하는 우선순위를 정해봅시다.

<우리 모둠이 정한 선택 기준>

1.

2.

3.

4.

5.

내가 생각할 때, 가장 먼저 고려되어야 할 선택 기준부터 우선순위를 정해봅시다.

<내가 정한 우선순위>

1.

2.

3.

4.

5.

◆ 내가 생각한 가장 먼저 고려되어야 할 기준과 가장 마지막에 고려해도 될 기준은 무엇인가요? 그 이유는 무 엇인가요?

학생용 워크시트 – 4. 인공지능의 책임성

학생용 워크시트 – 4. 인공지능의 책임성

1-2. 자율주행 셔틀 버스의 윤리적인 설계 가이드라인 만들기

◎ 앞에서 정한 우선순위를 고려하여, 우리 모둠만의 자율주행 셔틀 버스의 윤리적 설계 가이드라인을 만들어봅시다.

생각해보기

생각해보기

1-3. 자율주행 셔틀 버스의 윤리적인 설계 가이드라인 공유하기

◎ 다른 모둠과 자율주행 자동차의 윤리적 설계 가이드라인을 서로 공유해봅시다.

◆ 가장 많은 모둠에서 1순위로 선택한 기준은 무엇인가요?

◆ 가장 많은 모둠에서 마지막 순위로 선택한 기준은 무엇인가요?

학생용 워크시트 – 4. 인공지능의 책임성

학생용 워크시트 – 4. 인공지능의 책임성

생각해보기

2. 인공지능 개발 및 사용의 책임성

인공지능은 우리 삶을 매우 편리하게 만들어주고 있습니다. 하지만 앞의 주제에서 배운 것처럼 인공지능은 신뢰 성, 편향성, 의도적인 악용과 같은 문제가 발생할 수 있습니다. 인공지능으로 인한 혜택을 충분히 누리기 위해서 는 이러한 문제가 발생하지 않도록 다 같이 노력해야 합니다. 이를 위해서 많은 사람의 책임감 있는 참여가 필요 합니다.

우리는 자율주행이 자동차의 윤리적 가이드라인을 만들 때 사람들 사이의 사회적인 합의가 필요하다는 것을 이 야기했습니다. 자율주행이 자동차의 딜레마 상황처럼, 인공지능과 관련하여 발생할 수 있는 문제에 예방 및 대응 하기 위해서는 인공지능을 개발하는 단계, 개발된 인공지능을 제공하는 단계, 그리고 이를 사용하는 단계까지 인 공지능과 관련이 있는 모든 사람이 책임감을 느끼고 다양한 노력을 해야 합니다.

◎ 인공지능을 개발하고 사용하는 데에는 다음과 같은 사람들이 관련되어 있습니다.

분류 내용

인공지능을 개발하는 사람 목적에 맞게 인공지능 모델을 만드는 사람 예: 인공지능 프로그래머

인공지능 도입을 결정하거나 서비스를 제공 하는 사람

프로그래머가 만든 인공지능 모델을 사용하여 사람들에게 서비스 를 제공할지 결정하는 사람

예: 인공지능 추천 모델을 사용할지 결정하는 동영상 스트리밍 사 이트 운영자, 질병을 판단하는 인공지능을 병원에 도입할지 판단 하는 병원 운영자, 인공지능을 면접에 사용할지 결정하는 회사 대 표, 특정 인공지능을 우리나라에서 사용해도 될지 판단하는 정부 관계자 등

인공지능 서비스를 사용하는 사람 인공지능 서비스를 사용하는 사람

예: 인공지능이 상품을 추천하는 인터넷 쇼핑몰 고객, 인공지능을 활용하여 병의 유무를 판단하는 의사 등

생각해보기

◎ 이제 인공지능과 관련된 사람들이 인공지능을 개발, 제공, 사용할 때 어떤 책임감 있는 행동을 해 야 할지 정리해봅시다. 인공지능을 활용하기 위해 필요한 책임성과 각각 가장 관련이 깊은 입장을 선 으로 연결해봅시다.

책임성 입장

사회적인 합의를 바탕으로 한 원칙을 세우 고, 그 기준에 맞는 인공지능을 도입한다.

인공지능을 개발하는 사용자들이 믿고 사용할 수 있도록 신뢰할 사람

수 있는 인공지능을 개발한다.

법과 제도 등을 만들어 인공지능으로 발생할 수 있는 문제들에 대한 대비책을 마련한다.

인공지능을 원래 개발된 목적에 맞게 사용한

다. 인공지능을 제공하는 사

사용하는 데이터가 편향되지 않았는지 꼼꼼

하게 확인한다.

사용하고 있는 인공지능에서 윤리적인 문제 가 발생하는 경우 서비스를 제공하는 기업이 개선할 수 있도록 알린다.

인공지능 서비스와 제품을 출시한 이후에도 개발한 인공지능 프로그램을 지속해서 관리

학생용 워크시트 – 4. 인공지능의 책임성

학생용 워크시트 – 4. 인공지능의 책임성

자율주행 자동차와 관련된 윤리적 딜레마 상황에 대한 자신의 생

각을 이야기할 수 있다.

☆ ☆ ☆ ☆ ☆

자율주행 셔틀 버스의 윤리적 설계 가이드라인을 만들고, 인공지

능의 책임성에 대해 이야기할 수 있다.

☆ ☆ ☆ ☆ ☆

문서에서 인공지능의 책임성 (페이지 38-45)

관련 문서