목록AI (9)
snowwork

법원 사례https://www.lawtimes.co.kr/news/197090- AI로 만들어낸 가짜 판례를 인용했는데, 법원에서 이를 지적해 정직 처분을 당한 변호사의 케이스- 사용한 서비스는 웨스트로(Westlaw)와 패스트케이스(FastCase)- 사실 여부를 면밀히 검토하지 못했다는 책임을 고려하여 1년 간의 활동 정지 처분을 받았다. 종합 사례https://spri.kr/posts/view/23783?code=issue_reports&study_type=&board_type=&flg=1 AI 위험 유형 및 사례 분석 - SPRi최근 몇 년간 인공지능(AI) 기술의 발전은 챗GPT의 출시 이후 거대 언어 모델(LLM) 개발 경쟁을 거치며 가속화되었다. 현재 공개된 AI 모델들의 성능은 특정 분야..

원문: https://nsp.nanet.go.kr/plan/main/detail.do?nationalPlanControlNo=PLAN0000039452 국가전략정보포털표제지 목차 1. AI 위험관리 프레임워크(AI Risk Management Framework) 개요 3 2. AI RMF의 주요내용 6 3. AI RMF의 로드맵 18 4. 주요 시사점 21 참고자료 23nsp.nanet.go.kr RMF는 Risk Management Framework의 준말로,본 문서는 미국 국립표준기술연구소(NIST)에 의해 개발된 AI 위험관리 가이드 문서이다.(`23.1.26 발표)정부, 기업, 학계, 비영리단체, 시민 등 다양한 이해관계자의 협력과 공개 의견 수렴 등을 통해 만들어졌다.공개적이고 보편적인 성격을 ..

인공지능 윤리: 인간과 인공지능의 조화로운 공존 방안, KISTI, 2024.05.28원문: https://repository.kisti.re.kr/bitstream/10580/19041/1/KISTI%20%EC%9D%B4%EC%8A%88%EB%B8%8C%EB%A6%AC%ED%94%84%20%EC%A0%9C68%ED%98%B8.pdf AI의 위험성AI의 무기화AI 시스템에 대한 공격예측 불가능한 기술 발전AI 시스템의 오작동AI 시스템에 대한 통제력 상실AI 문제 사례딥페이크로 인한 금융, 언론 사고AI 채용 시스템의 성별, 인종 차별프라이버시를 침해하는 AI 감시 시스템AI 사고 현황(개인의견)과거 10년 기준 10배 이상 증가향후 문제 정의, AI 고도화에 따라 기하급수적으로 증가할 것으로 예상 아실..
IEEE 7000™-2021(시스템 설계 중 윤리적 우려 해결을 위한 모델 프로세스)- 윤리적 시스템 공학과 관련하여 인간과 사회적 가치를 분석하는 방법론을 규정- 제품/서비스 개발 등에 해당 표준을 활용할 수 있음- "시스템 수명 주기 초기에 시스템의 성능과 기능에 관련된 윤리적 문제를 고려한 프로세스들이 잘 정의되어 있음" 표준이 제공하는 것- (1) 인간과 사회적 가치를 전통적인 시스템 공학 및 설계에 통합하는 시스템 공학 표준 접근법- (2) 엔지니어가 이해 관계자의 가치와 윤리적 고려 사항을 시스템 요구 사항 및 설계 관행으로 변환하는 프로세스- (3) 자율 지능형 시스템 설계에 대한 윤리적 규제 의무를 해결하기 위한 체계적이고 투명하며 추적 가능한 접근법 출처: IEEE SA, 2021.09..
1. 일반원칙- 인간권리의 최고이념- 인류와 자연환경의 최대이익- 인공지능의 사회적 활용에 따른 위험, 부작용 경감- (쟁점) 인공지능이 인간의 권리를 침해하지 않는다고 보장할 수 있는가?- (쟁점) 인공지능의 책임을 어떻게 보장하는가?- (쟁점) 인공지능 기술을 활용하여 혜택을 확대하고 위험을 최소화하는 방법? 2. 가치구현- 인공지능의 영향을 받는 공통체의 규범과 가치를 파악- 그 규범과 가치를 시스템 내에 구현- 규범과 가치를 조정, 적합성을 평가- (쟁점) 인공지능에 구현된 가치는 보편적이지 아닐 수 있다.- (정점) 도덕적 과부화: 상호대립되는 규범 및 가치- (쟁점) 데이터나 알고리즘의 편향성- (쟁점) 규범들을 아키텍처로 구현하는 것의 한계- (쟁점) 인공지능 내 규범과 공동체 규범의 조화-..

삼성 SDS(https://www.samsungsds.com/kr/insights/ai_governance.html)- AI 의사결정이 이해할 수 없을 정도로 복잡해지면서 '블랙박스' 문제가 생기고 공정성, 투명성에 대한 요구가 드러남- ESG의 Social: 프라이버시, 다양성, 인권 이슈 등에 해당될 것- Trustworthy AI, Responsible AI, Ethical AI의 개념 등이 있음- 글로벌 표준화는 ISO/IEC JTC1 - SC42(Artificial Intelligence)-WG3 항목으로 진행 중- AI 윤리 관련 기술: (1)측정형 기술(공정성, 개인정보보호 정도를 측정) (2)활용형 기술(XAI 등)- 삼성 SDS AI 윤리헌장의 개념은 (인권존중/다양성 포용성/데이터 프라..