목록Study/PBL (14)
촉촉한초코칩
1. 프루닝 (Pruning)모델에서 중요하지 않은 뉴런, 가중치 제거모델 크기를 줄이고 속도 향상도구 : Tensorflow model optimization toolkit, PyTorch의 TorchScript 등2. 양자화 (Quantization)가중치와 활성화 값을 낮은 비트 정밀도로 표현메모리 사용량을 줄이고 계산 속도 높임도구 : Tensorflow lite, PyTorch의 Quantization API3. 지식 증류 (Knowledge Distillation)큰 모델의 지식을 작은 모델로 전이작으 모델이 큰 모델의 성능을 유지할 수 있도록 함도구 : Tensorflow, PyTorch4. 경량화 모델 아키텍처 사용경량화된 모델 아키텍처를 설계하거나 사용처음부터 경량화된 모델을 사용예시 :..
.gitignore : git이 관리하지 않는 파일 지정requirements.txt : 필요한 라이브러리..? Compare_features_db#파일 불러오기elise_feat = pd.read_csv('data/dataset_Elise.csv')youss_feat = pd.read_csv('data/New_features1.csv')#columns : DataFrame의 모든 열 이름 반환 #columns[1:] : 첫번째 열을 제외한 나머지 모든 열 이름 elise_feat = elise_feat[elise_feat.columns[1:]]#elise_feat 통계 요약 계산 후 mean, 50%, std 선택 #round 함수 : 소수점 둘째 자리까지 반올림 compare_real_df = ro..
https://developers.google.com/machine-learning/crash-course?hl=ko 로지스틱 회귀 확률 계산예제) 한밤중에 개가 짖는 확률 예측 확률 : p(bark | night)로지스터 회귀 모델이 p(bark | night) = 0.05를 예측하면 강아지는 1년 이상 약 18번 깨어있다.startled = p(bark | night) * nights = 0.05 * 365 = 18 대부분 로지스터 회귀 출력을 이진 분류 문제에 해결책으로 매핑한다.이 경우 목표는 가능한 두 라벨 중 하나(스팸/스팸아닌)이며 모듈은 여기에 중점을 둔다. 1. 시그모이드 함수로지스틱 회귀 모델이 항상 0과 1 사이의 값을 보장하는 방법 : 시그모이드 함수가 ..
https://developers.google.com/machine-learning/crash-course?hl=ko 검증 세트 검증세트 : 다른 파티션1. 가능한 워크플로학습 데이터 : 모델 학습테스트 데이터 : 테스트 후 측정 항목 관찰 > 속성 추가/제거를 통해 모델 정확성 개선 모델 조정 : 학습률 변경, 특성 추가 또는 삭제, 완전히 새로운 모델 설계 등 모델의 모든 요소를 조정하는 것 > 워크플로의 끝에서 테스트 세트를 기준으로 가장 우수한 모델 선택 문제점 : 테스트 데이터만의 특성에 과적합한 모델이 나온다면?해결 방법 : 모집단에서 3번째 데이터 만들기 > 테스트 데이터는 사용 X > 좋은 결과가 나올 때까지 계속 반복 2. 데이터 세트 하나를 3개의 하위 집합으로 슬라이싱 검증 세트를..
https://developers.google.com/machine-learning/crash-course?hl=ko 프레이밍 : 주요 ML 용어 지도 머신러닝 : 입력을 결합하여 모델을 만들고 다음 데이터를 예측한다.라벨 : 예측하는 항목기능 (특성) : 입력 변수 ex) 스팸 감지기데이터의 특정 인스턴스 : x (벡터)라벨이 있는 예시 특성과 라벨 모두 포함된다. 라벨이 지정된 예시는 사용자가 명시적으로 '스팸' 또는 '스팸 아님'으로 표시한 개별 이메일이다. labeled examples: {features, label}: (x, y) 라벨이 없는 예시특성은 포함되지만 라벨은 포함되지 않는다. unlabeled examples: {features, ?}: (x, ?) 모델특성과 라벨 간의 관계 정..