자습

에러 문구 : npm does not support Node.js v16.8.0 You should probably upgrade to a newer version of node as we can't make any promises that npm will work with this version. Supported releases of Node.js are the latest release of 4, 6, 8, 9, 10. You can find the latest version at https://nodejs.org/ Node.js Node.js® is a JavaScript runtime built on Chrome's V8 JavaScript engine. nodejs.org 해결방법 : 1. C..
case 1. git remote add origin (깃허브 레퍼지토리 주소) --> (에러 발생) error: remote origin already exists. ==> (해결) git remote remove origin 다시. git remote add origin (깃허브 레퍼지토리 주소) git branch -M main git commit -m '' git push -u origin main(대개 master. 현재 나는 main) case 2. git remote add origin (깃허브 레퍼지토리 주소) git branch -M main git commit -m '' git push -u origin main(대개 master. 현재 나는 main) --> (에러 발생) ! [rej..
얼마 전에 노트북을 맥북 에어 m1으로 바꿨습니당 웹 프론트엔드 개발을 하려고 웬만한 설치는 했다생각하고 VSCode 터미널로 실행시켰더니 zsh: command not found: code 이런 에러 문구가 생기네요..! 해결 방법 : PATH에 code를 등록시켜야합니다! 절차는 아주 간단합니다! 1. VSCode에서 Command Palette를 실행시킵니다. (cmd + shift + p) 2. " Shell Command: Install 'code' command in PATH " 입력하고 enter 3. 터미널에서 code . 라고 입력하면 실행되는 것을 확인할 수 있습니다.
I. 튜닝 프로세스 신경망을 학습시킬 때 여러 가지 하이퍼파라미터가 관여한다. 여기서 하이퍼파라미터는 파라미터와 명확하게 다른 개념이다. 파라미터는 모델 내부에서 결정되는 변수를 뜻하고 하이퍼파라미터는 모델링을 할 때 사용자가 직접 세팅해주는 값을 뜻한다. 딥러닝에는 다양한 하이퍼파라미터가 존재한다. 상황에 따라 다를 수도 있지만 보통 우선 조정하는 순서로 나열해보면 다음과 같다. - 학습률 - 모멘텀(Momentum) - 학습률 (α) - 모멘텀(Momentum) 알고리즘의 β - 은닉 유닛의 수 - 미니배치 크기 - 은닉층의 갯수 - 학습률 감쇠(learning rate decay) 정도 - 아담(Adam) 알고리즘의 β1, β2, ϵ 이렇게 다양한 하이퍼파라미터가 존재하는데 심층 신경망을 학습 시킬..
for-loop를 이용하여 계산하면 굉장히 시간이 오래걸려서 가급적 동시에 처리할 수 있도록 벡터화를 통해 하나의 instruction으로 연산할 수 있도록 vectorization을 해주어야한다. 위 그림을 보면 두번째 레이어에서 weight 5개가 있고 그 weight 5개를 아래와 같이 벡터라이제이션 해준다. 위 그림은 레이어 하나 안에 있는 한 뉴런인데, 뉴런안에 있는 weight, 인풋, 아웃풋 등을 전부 아래의 식에서 나온 것과 같이 벡터라이제이션을 해줘야한다. ※ 벡터라이제이션에 대한 내용은 실습 시 코드를 짤 때도 벡터의 크기를 맞추는 것이 매우 중요하니 공부해둘 필요가 있다.
feature, label로 학습을 하는 지도학습과 달리 오직 feature만으로도 학습이 된다는 점이 신기하다. 에듀윗 부산대 강의에서는 클러스터링 기법은 계층적 군집 방식과 비계층적 군집방식의 k-means 방식에 대해 배웠다. 그리고 추가적으로 찾아보니 위의 방식같은 분류뿐만 아니라, 차원축소에도 비지도학습이 사용된다고한다. 여기서의 '차원축소' 란 시각화를 위해 데이터셋을 2차원으로 변경하거나 이미지 데이터를 압축하는 경우가 있다. 이 차원축소의 대표적인 방식이 PCA,주성분 분석 방식이 있다.
RNN = 순환신경망 - 현재 스텝의 출력이 다음 스텝의 입력이 됨 - 정보가 계속 도는 구조 - 매 시퀀스에서 RNN 모델은 현재의 입력뿐 만 아니라 이전 스텝의 요소들을 기억하고 활용함 - 고정길이보다 임의의 길이의 시퀀스를 다룰 때 효과적 순환구조 t-3시간 때 x에서 인풋 y쪽으로 아웃풋 그 y는 y(t-3) 이것은 다시 x(t-2)와 함께 다시 한번 인풋으로 들어감 아웃풋 신호가 다시 인풋으로 들어감 ​ 메모리 셀 = x와 y사이의 은닉 셀 ​ 1) seq to seq : 가장 기본적 2) seq to vector 입력은 x0~x3로 4개, but 출력은 1개 1번은 모든 데이터가 들어와서 현재시간에 모든 데이터를 출력으로 잡아줘야함 2번은 과거의 데이터를 이용해서 미래를 예측할 때, 과거의 데..
활성화 함수 활성화 함수는 인공신경망에서 입력 값에 대해서 가중치를 곱한 뒤 적용하는 함수를 의미한다. 예를 들어, - 계단 함수(Step Function) - 시그모이드(Sigmoid) - tanh 함수(Hyperbolic tangent function) - ReLU(Rectified Linear Unit) - Leakly ReLU - PReLU - ELU(Exponential Linear Unit) - Maxout 함수 - 항등 함수(Identity Function) - 소프트맥스 함수(Softmax Function) 등이 있다. 신경망은 입력층, 은닉층, 출력층으로 구성되는데, 선형함수를 사용할 경우에는 은닉층을 사용할 수 X. 즉, 선형함수를 여러층으로 구성하더라도 결국은 선형함수를 그저 여러번 ..
모K
'자습' 카테고리의 글 목록