[TIL] 2024-08-28 (ML)TIL/2024.082024. 8. 29. 00:14
Table of Contents
728x90
Today I Learned (2024-08-28)
목차
오늘 공부한 내용
1. KDT (ML)
XAI(설명 가능한 AI)
- 화이트박스 모델이다.
- 예) decision tree
Shap
기계 학습 모델의 예측 결과를 설명하기 위한 방법론 중 하나이다.
입력 특성의 기여도를 정량화하여, 모델이 왜 특정 예측했는지 예측할 수 있게 한다.
feature importances
와 거의 유사한 수치를 보여준다.예시 코드
import xgboost import shap from sklearn.datasets import fetch_california_housing from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler # California 주택 데이터셋 로드 california = fetch_california_housing() X = california.data y = california.target # 데이터셋 분할 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 데이터 스케일링 scaler = StandardScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test) # XGBoost 모델 학습 model = xgboost.XGBRegressor(objective="reg:squarederror", learning_rate=0.01, n_estimators=100) model.fit(X_train, y_train) # SHAP 값 계산 explainer = shap.Explainer(model, X_train) shap_values = explainer(X_test) # SHAP 요약 플롯 생성 shap.summary_plot(shap_values, X_test, feature_names=california.feature_names)
Calculus
The Squeeze Theorem
- 샌드위치 정리
- 극한에서 f(x)와 h(x) 사이에 g(x)가 있고 f와 h 의 극한값이 L이면 g의 극한값도 L이다.
Machine Learning
타이타닉 수치형 데이터 EDA
- Fare
- PassengerId
- Name
- Cabin
- Ticket
- 위와 같은 피처들을 분석하고 비슷한 피처를 합쳐서 새로운 피처를 만들어서 분석하였다.
어려웠던 내용
- 공부양이 많다?...
궁금한 내용과 부족한 내용
- XAI의 다양한 활용
느낀 점
- XAI를 이용해 설명 가능한 AI를 만들지만
- 너무 느리다... 정말 너무 느리다.
- 보고서에 작성을 잘 안한다고 하는데 이유를 알겠다.
'TIL > 2024.08' 카테고리의 다른 글
[TIL] 2024-08-30 (ML) (0) | 2024.08.31 |
---|---|
[TIL] 2024-08-29 (ML) (0) | 2024.08.29 |
[TIL] 2024-08-27 (ML) (1) | 2024.08.28 |
[TIL] 2024-08-26 (ML) (0) | 2024.08.27 |
[TIL] 2024-08-25 (ML) (0) | 2024.08.26 |
@maneDataLab :: 마네의 데이터랩
배움에 즐거움을 느끼는 마네의 데이터랩 이미지 출처 : https://www.instagram.com/hoseobiiiiiii._.0410/
포스팅이 좋았다면 "좋아요❤️" 또는 "구독👍🏻" 해주세요!