본문 바로가기

분류 전체보기110

[ML이론] 하이퍼파라미터 튜닝이란? - Grid Search, Random Search, Bayesian Search 개념 정의, 장단점 하이퍼파라미터 튜닝(Hyperparameter Tuning)하이퍼파라미터(hyperparameter)란 모델 학습 과정에서 사람이 직접 설정해야 하는 파라미터를 의미한다. 머신러닝 모델이 좋은 성능을 내려면 적절한 하이퍼파라미터를 설정해줘야 한다. 하이퍼파라미터 튜닝은 이렇게 적절한 하이퍼파라미터를 찾는 과정을 말하는데, 크게 세 가지 방법이 있다. Grid SearchRandom SearchBayesian OptimizationBayesian Optimization 가 가장 효율적인 방법이라고 생각하지만, 이 방식이 나오기 전에 사용되었던 다른 튜닝 방법도 살펴보자. 다음 세 가지 그림의 차이점만 안다면 하이퍼파라미터 튜닝을 제대로 공부한 것이다!  1. Grid SearchGrid Search 는 주.. 2025. 1. 29.
('24.11월 마지막주) Data/AI 직무 신입 채용 공고 - 우리은행, KB국민은행, 신협중앙회 등 ('24.11월 마지막주) Data/AI 직무 신입 채용 공고회사포지션채용 직무서류 시작일서류 마감일자격요건비고우리은행체험형 인턴디지털/IT(디지털기획, 플랫폼서비스기획, AI, 데이터분석 등)2024.11.18(월)2024.11.29(금) 18:00- 2025년 동계 인턴십 full-time 근무 가능- 00명 채용- 서류 -> 면접/인성검사 -> 인턴십(2024.01.13~2024.02.14)- 인턴 수료자 전원 서류전형 면제혜택 부여 등- https://wooribank.careerlink.kr/jobs/RC20241106007147KB국민은행체험형 인턴AI/데이터2024.11.27(수)2024.12.03(화) 18:00- 2025년 동계 인턴십 full-time 근무 가능- 서울 지역 근무 가능-.. 2024. 11. 28.
Data/AI 직무 멘토링 수강생 After 공유 자료 보호되어 있는 글 입니다. 2024. 11. 21.
AWS GameDay 리뷰 - AWS Gen AI를 위해 알아야하는 것!? Bedrock- 파운데이션 모델(FM)- 플레이그라운드- 오케스트레이션실습- LLM 기반 Simple 챗봇 개발- RAG 기반 Simple 챗봇 개발자주 겪는 어려움들- 실습을 위한 기반 AWS 솔루션: S3, Cloud9, Step Function, ...- (권한) IAM 사용자 권한 설정 문제, 포트 번호 사용 설정 등- (과금) 생성형 AI 실습 시 과금되는 솔루션 목록 더보기https://github.com/ukairia777/aws-bedrock-tutorial/tree/main  파운데이션 모델(FM)파운데이션 모델이란?대규모 데이터 세트를 기반으로 훈련된 모델(FM)데이터 사이언티스트가 처음부터 인공지능(AI)를 개발하지 않고 파운데이션 모델을 출발점으로 삼아 새로운 애플리케이션을 더 빠르.. 2024. 7. 15.
데이터 직무 관련 글 업데이트 일정 데이터 직무 관련해서 매주 글이 계속 업데이트될 예정입니다. 23.10.16 (월) - 데이터 직무 포트폴리오 사례 (ppt 사례본 추가) 23.10.23 (월) - 데이터 직무 현업에서 하는 프로젝트 소개 23.10.23 (월) - 데이터 직무 해볼 만한 프로젝트 사이트 소개 2023. 10. 13.
[Pytorch] model.eval()과 with torch.no_grad()의 차이점 pytorch를 이용해서 모델을 학습한 뒤, 모델을 평가할 때 model.eval()과 with torch.no_grad()를 둘다 사용하라고 하는데, 두 명령어의 차이는 무엇일까? model.eval() 해당 model의 모든 layer가 eval mode에 들어가게 함 학습할 때만 사용하는 개념인 Dropout layer이나 Batch Normalization Layer 등을 비활성화시킴 with torch.no_grad() with torch.no_grad()는 pytorch의 autograd engine을 비활성화시킴. 즉, 더이상 gradient를 트래킹하지 않음 필요한 메모리가 줄어들고 계산속도가 증가함 # pytorch model evaluate code model.eval() with to.. 2023. 4. 20.
728x90