머신러닝 리스크 관리 with 파이썬

안정성과 신뢰성 높은 견고한 모델을 구축하는 방법
$47.63
SKU
9791169212380
+ Wish
[Free shipping over $100]

Standard Shipping estimated by Fri 05/31 - Thu 06/6 (주문일로부 10-14 영업일)

Express Shipping estimated by Tue 05/28 - Thu 05/30 (주문일로부 7-9 영업일)

* 안내되는 배송 완료 예상일은 유통사/배송사의 상황에 따라 예고 없이 변동될 수 있습니다.
Publication Date 2024/05/10
Pages/Weight/Size 183*235*22mm
ISBN 9791169212380
Categories IT 모바일 > 네트워크/해킹/보안
Description
책임감 있고 지속 가능한 ML 시스템을 배포하는 방법,
AI 모범 사례와 위험 관리 프로세스 제대로 알고 활용하기


모든 기술이 그렇듯이 ML도 의도하지 않은 오용이나 의도적인 남용 때문에 실패할 수 있다. 조직과 대중이 이 흥미로운 기술의 진정한 이점을 활용하려면 그러한 위험 요인을 완화해야 한다. 이 책이 준수하려는 초기 표준이 최근 조금씩 구체화되기 시작했지만, 머신러닝 실무에서는 아직 널리 인정받는 전문 자격증이나 모범 사례가 부족하다. 따라서 머신러닝 기술이 세상에 배포될 때 해당 기술의 결과에 대한 책임을 실무자가 떠안아야 하는 실정이다.

이 책은 실무자가 AI 모델 위험관리 프로세스를 제대로 이해하고, 일반적인 파이썬 도구를 사용해 설명 가능한 모델을 학습하며 안전성, 편향 관리, 보안, 프라이버시 문제를 관리하는 새로운 방법을 제공한다. ML의 리스크를 제거하는 미묘한 접근 방식을 취함으로써, 책임감 있고 지속 가능한 방식으로 ML 시스템을 성공적으로 배포할 수 있는 귀중한 리소스를 독자들에게 제공한다.
Contents
[1부_ 인공지능 위험관리의 이론과 실제 적용 사례]

1장 현대의 머신러닝 위험관리

_1.1 법률 및 규제 환경 개요
_1.2 권위 있는 모범사례
_1.3 AI 사고
_1.4 머신러닝 위험관리를 위한 문화적 역량
_1.5 머신러닝 위험관리를 위한 조직 프로세스
_1.6 사례 연구: 질로우 아이바잉 사업의 흥망성쇠
_1.7 참고 자료

2장 해석 및 설명 가능한 머신러닝
_2.1 해석 가능성 및 설명 가능성에 관한 중요 아이디어
_2.2 설명 가능한 모델
_2.3 사후 설명
_2.4 실무에서 사후 설명의 고질적 문제
_2.5 설명 가능한 모델과 사후 설명의 결합
_2.6 사례 연구: 알고리즘 채점
_2.7 참고 자료

3장 안전성과 성능을 높이는 머신러닝 시스템 디버깅
_3.1 훈련
_3.2 모델 디버깅
_3.3 배포
_3.4 사례 연구: 자율주행차 사망 사고
_3.5 참고 자료

4장 머신러닝 편향관리
_4.1 ISO 및 NIST의 편향 정의
_4.2 미국의 머신러닝 편향에 대한 법적 개념
_4.3 머신러닝 시스템의 편향을 경험하는 경향이 있는 사람
_4.4 사람들이 경험하는 피해
_4.5 편향 테스트
_4.6 편향 완화
_4.7 사례연구: 편향 버그 바운티
_4.8 참고 자료

5장 머신러닝 보안
_5.1 보안 기초
_5.2 머신러닝 공격
_5.3 일반적인 머신러닝 보안 문제
_5.4 대응책
_5.5 사례 연구: 실제 우회 공격
_5.6 참고 자료

[2부_ 인공지능 위험관리 실행하기]

6장 설명 가능한 부스팅 머신과 XGBoost 설명

_6.1 개념 복습: 머신러닝 투명성
_6.2 일반화가법모형 계열의 설명 가능한 모델
_6.3 제약조건과 사후 설명이 있는 XGBoost
_6.4 참고 자료

7장 파이토치 이미지 분류기
_7.1 흉부 엑스레이 분류 설명
_7.2 개념 복습: 설명 가능한 모델과 사후 설명 기법
_7.3 설명 가능한 모델
_7.4 파이토치 이미지 분류기 훈련 및 설명
_7.5 결론
_7.6 참고 자료

8장 XGBoost 모델 선택 및 디버깅
_8.1 개념 복습: 머신러닝 디버깅
_8.2 더 좋은 XGBoost 모델 선택하기
_8.3 XGBoost 민감도 분석
_8.4 XGBoost 잔차 분석
_8.5 선택한 모델 개선하기
_8.6 결론
_8.7 참고 자료

9장 파이토치 이미지 분류기 디버깅
_9.1 개념 복습: 딥러닝 디버깅
_9.2 파이토치 이미지 분류기 디버깅하기
_9.3 결론
_9.4 참고 자료

10장 XGBoost를 사용한 편향 테스트 및 개선
_10.1 개념 복습: 편향관리
_10.2 모델 훈련
_10.3 모델의 편향 평가
_10.4 편향 개선
_10.5 결론
_10.6 참고 자료

11장 레드 팀 XGBoost
_11.1 개념 복습
_11.2 모델 훈련
_11.3 레드 팀 공격
_11.4 결론
_11.5 참고 자료

[3부_ 결론]

12장 고위험 머신러닝에서 성공하는 방법

_12.1 프로젝트 참여 대상
_12.2 과학 대 공학
_12.3 발표된 결과와 주장에 대한 평가
_12.4 외부 표준 적용하기
_12.5 상식적인 위험완화
_12.6 결론
_12.7 참고 자료

부록
찾아보기
Author
패트릭 홀,제임스 커티스,파룰 판데이,윤덕상,이상만,김경환,김광훈,장기식
BNH.AI의 수석 과학자로 포춘 500대 기업과 최첨단 스타트업에 AI 위험에 관해 자문을 제공하고, NIST의 인공지능 위험관리 프레임워크를 지원하는 연구를 수행하고 있다. 조지 워싱턴 경영대학원의 의사결정과학과 객원 교수로 데이터 윤리와 비즈니스 분석, 머신러닝 강의를 진행하고 있다. BNH를 공동 설립하기 전에는 H2O.ai에서 책임 있는 AI 분야를 이끌면서 머신러닝의 설명 가능성 및 편향성 완화를 위한 세계 최초의 상용 응용 프로그램을 개발했다. 또한 SAS 연구소에서 글로벌 고객 지원 업무와 R&D 업무를 담당했다. 일리노이 대학교에서 계산화학을 전공한 후 노스캐롤라이나 주립대학교의 고급 분석 연구소를 졸업했다.

미국 과학, 공학 및 의학 아카데미(National Academies of Science, Engineering, and Medicine), ACM SIGKDD, 합동 통계 회의(Joint Statistical Meetings)에서 설명 가능한 인공지능과 관련 주제로 발표했다. McKinsey.com, 오라일리 레이더(O’Reilly Radar), 톰슨 로이터 규제 인텔리전스(Thompson Reuters Regulatory Intelligence) 등의 매체에 글을 기고했으며, 그의 기술 성과는 [포춘(Fortune)], [와이어드(Wired)], [인포월드(InfoWorld)], [테크크런치(TechCrunch)] 등에 소개되었다.
BNH.AI의 수석 과학자로 포춘 500대 기업과 최첨단 스타트업에 AI 위험에 관해 자문을 제공하고, NIST의 인공지능 위험관리 프레임워크를 지원하는 연구를 수행하고 있다. 조지 워싱턴 경영대학원의 의사결정과학과 객원 교수로 데이터 윤리와 비즈니스 분석, 머신러닝 강의를 진행하고 있다. BNH를 공동 설립하기 전에는 H2O.ai에서 책임 있는 AI 분야를 이끌면서 머신러닝의 설명 가능성 및 편향성 완화를 위한 세계 최초의 상용 응용 프로그램을 개발했다. 또한 SAS 연구소에서 글로벌 고객 지원 업무와 R&D 업무를 담당했다. 일리노이 대학교에서 계산화학을 전공한 후 노스캐롤라이나 주립대학교의 고급 분석 연구소를 졸업했다.

미국 과학, 공학 및 의학 아카데미(National Academies of Science, Engineering, and Medicine), ACM SIGKDD, 합동 통계 회의(Joint Statistical Meetings)에서 설명 가능한 인공지능과 관련 주제로 발표했다. McKinsey.com, 오라일리 레이더(O’Reilly Radar), 톰슨 로이터 규제 인텔리전스(Thompson Reuters Regulatory Intelligence) 등의 매체에 글을 기고했으며, 그의 기술 성과는 [포춘(Fortune)], [와이어드(Wired)], [인포월드(InfoWorld)], [테크크런치(TechCrunch)] 등에 소개되었다.