회원 가입
로그인
KGTC 전화걸기
ABOUT US
역할
연혁
PROGRAMS
보건의료 R&D
- 강의 듣기
- 과제물 제출
- 강의 ARCHIVE
- 수료증 인쇄
RESOURCES
공지사항
행사자료
교육자료
Open AI
CONTACT US
FAQ
1:1 문의
커뮤니티
보건의료 R&D 지식나눔
ABOUT US
역할
연혁
PROGRAMS
보건의료 R&D
- 강의 듣기
- 과제물 제출
- 강의 ARCHIVE
- 수료증 인쇄
RESOURCES
공지사항
행사자료
교육자료
Open AI
CONTACT US
FAQ
1:1 문의
커뮤니티
보건의료 R&D 지식나눔
회원가입
로그인
메뉴
지식 나눔
커뮤니티
커뮤니티
ABOUT US
PROGRAMS
RESOURCES
CONTACT US
커뮤니티
보건의료 R&D 지식나눔
보건의료 R&D 지식나눔
공유하기
보건의료 R&D
KGTC를 이용해주셔서 감사합니다.
상단
보건의료 R&D 글답변
이름
필수
비밀번호
필수
이메일
홈페이지
제목
필수
내용
필수
웹에디터 시작
> > > 수십년 전부터 제품에 사용된 화학 구성성분을 표기하기 시작하여 환경 보호를 위한 노력이 이루어졌다. 이제는 제품에 사용된 화학물질이 생분해 가능한지 여부나 독성 물질의 존재 여부 등을 스스로 밝히도록 법적 규제가 이루어졌으며, 이러한 규제가 자연스럽게 받아들여지고 있다. 이때 인증 작업도 함께 이루어지고 있다. 예를 들어, ISO 14001, USDA Organic, Fairtrade, LEED, FSC 등 인증제도는 제품이나 서비스의 품질, 안전성, 환경경영, 사회적 책임성을 인증하여 소비자와 기업 모두에게 이점을 제공한다. 윤리적 인증제도로는, Fairtrade와 B Corp 등 윤리적 인증제도는 제품 생산자 및 기업이 사회적, 경제적, 환경적 가치를 보장하고, 소비자들이 윤리적 가치를 높이는 제품을 선택할 수 있도록 돕는다. > > 한편 현재로서는 인공지능 활용정도를 인증하는 표준화된 인증제도는 없지만, 인공지능 시스템의 안전성, 신뢰성, 공정성, 개인정보 보호 등을 평가하고 관리하기 위한 지침을 제공하는 가이드라인과 프레임워크가 있다. IEEE의 Ethically Aligned Design 가이드라인과 NIST의 AI 테스트 프레임워크는 그 예이다. 이러한 기준들은 안전하고 신뢰할 수 있는 인공지능 시스템을 선택하고 사용할 수 있도록 도와준다. 또한, 창작 제품의 경우에도 인공지능의 도움을 얼마나 받았는지를 제작자가 스스로 밝히는 것이 필요하다. 가능하다면 인증 시스템도 갖추고 도움의 정도를 정량화 하는 프로토콜도 필요 하다. 이는 제품과 서비스의 투명성을 높이고, 소비자들이 제품을 더욱 신뢰할 수 있도록 하기 위한 노력이다. 예를 들어, 최근 출시된 음성인식 기술 제품의 경우, 제작자는 제품에 사용된 인공지능 모델의 성능과 학습 데이터의 출처 등을 공개함으로써 소비자들의 신뢰를 얻으려고 노력하고 있다. 이러한 노력은 제품과 서비스의 투명성을 높이는 데 큰 도움이 된다. > > 인공지능 활용에 대한 윤리적인 문제를 해결하기 위한 인공지능 윤리 인증제도는 예를 들어, 윤리적 문제를 해결하고 신뢰성을 보장하는 인공지능 개발을 촉진하는 목적으로 IEEE에서는 "Ethically Aligned Design" 이라는 가이드라인을 제공하고 있다. 또한, EU에서는 인공지능 윤리 인증제도를 도입하고자 하는 계획도 있다. 이러한 인공지능 윤리 인증제도는 인공지능 기술을 활용하면서도 윤리적인 문제를 해결하고, 사용자들에게 신뢰성을 제공하는 데 도움이 된다. > > EU 인공지능법은 인공지능 기술을 사용하는 시스템 및 서비스 운영자의 의무를 강화하고, 위험도에 따라 '금지된 위험의 인공지능', '고위험 인공지능', '낮은 위험 인공지능' 등으로 구분하는 것이 특징이다. 금지된 위험의 인공지능은 인간의 행동이나 결정을 조작해 위험을 초래하는 시스템으로, 개발 및 사용이 금지된다. 고위험 인공지능은 중요 인프라 관리, 노동, 법 집행 등에 사용되며, 까다로운 규제를 따르고 적합성 평가와 인증을 거쳐야 한다. 낮은 위험 인공지능은 규제가 덜하지만, 적합성 평가와 인증을 받아야 한다. > 소비자입장에서 인공지능을 이용해 제품이나 서비스를 지공하는 중간 제작자 필요한 윤리적 인증제도도 필요 하다. 소비자들이 윤리적인 가치를 중요시하는 만큼, 기업들이 윤리적인 문제에 대한 해결책을 마련하고 인증제도를 통해 소비자들에게 제공하는 것이 중요하다. 예를 들어, 기업들이 윤리적인 원칙을 준수하는지 확인할 수 있는 B Corp 인증제도가 있다. 또한, 일부 기업들은 Honor Pledge나 윤리 코드와 같은 도구를 도입하여 윤리적인 원칙을 강조하고 있다. 이러한 도구들은 소비자들에게 기업들의 윤리적인 가치를 알리고, 신뢰성 있는 제품을 선택할 수 있도록 돕는 역할을 한다. 따라서, 소비자들은 윤리적 문제에 대한 인증제도와 도구들을 주목하여 제품을 선택할 수 있다. > > > > 현재 chatGPT로 시작된 인공지능 오픈형AI가 전세계에 열풍을 넘어 광풍으로 몰아치고 있다. chatGPT의 월 사용자가 1억명에 달하고 전체 가입자수가 3억명을 돌파하고 있으며, MS의 검색서비스인 빙(Bing)의 서비스가 본격적으로 개시되고 있고, 하루가 다르게 chatGPT를 활용한 새로운 앱 서비스 모델들이 선보이고 있다. > > 바야흐로 인공지능 서비스와 더불어 새로운 변곡점의 시대가 도래 되고 있는 글로벌 트렌드 현상으로 대두되고 있다. 그러나 새로운 차세대 기술에 대한 기대로 열광하고 있는 반대편에 chatGPT 정보의 불분명한 출처와 부정확성, 창작성과 예술성의 침해, 오류 등 더불어 오픈형AI 사용에 관한 불편한 법률적, 윤리적, 사회적으로 다양한 문제에도 직면하게 되었다. 모든 새로운 시작은 혼란을 가져온다. 혼란과 혼돈을 넘어선 질서를 위해서는 다양한 사회적 담론과 소통이 필요하며, 사회 구성원 개개인들의 질서를 향한 시민의식 또한 요구되고 있다 > > 이에 오픈형AI 사용에 대한 연구자 및 사용자 개개인들의 질서를 유지와 컨센서스를 위한 “Honor Pledge” 선포 서약 및 인증화 등을 통한 정화 작업의 병행을 제안하고자 한다. > >
웹 에디터 끝
링크 #1
링크 #2
자동등록방지
숫자음성듣기
새로고침
자동등록방지 숫자를 순서대로 입력하세요.
취소
작성완료
하단