520817

  • 홈
  • 태그
  • 방명록

합성곱층 1

[딥러닝] LSTM 모델과 CNN 합성곱 신경망

순환신경망 RNN 모델은 짧은 시퀀스만 좋음timesteps가 길어지면 앞의 정보가 뒤로 충분히 전달되지 못하는 현상 발생함 LSTM(Long Short-Term Memory) 모델LSTM 모델은 은닉층의 메모리 셀에 삭제, 입력, 출력 게이트를 추가하여불필요한 기억을 지우고 기억해야할 것들을 정함긴 시퀀스 입력을 처리하는데도 성능이 굿그래서 RNN 모델의 단점을 보완한 모델이래 삭제, 입력, 출력 게이트에는 공통적으로 시그모이드 함수가 존재함시그모이드 함수를 지나면 0과 1 사이의 값이 나오게 되는데 이걸로 게이트를 조절함 입력 게이트현재 정보를 기억하기 위한 게이트 위의 식은 t 시점의 입력값과 가중치 Wxi를 곱한 값과t-1 시점의 은닉 상태와 가중치 Whi를 곱한 값을 더해서 시그모이드 함수를 지..

공부공부 2024.12.02
이전
1
다음
더보기
프로필사진

520817

  • 분류 전체보기 (15)
    • 프로젝트 (5)
    • 논문 (3)
    • 영어 (1)
    • 공부공부 (6)

Tag

microrna, lin-14, 딥러닝, 위키독스, 양방향순환신경망, 기울기소실, 딥러닝입문, 7가지감정분류, 감정분류, 기울기증폭, KoBERT, 정신스트레스, lin-4, let-7, lc회로, rc회로, 천원의급식소, 구글코랩, 풀링층, 저주파필터,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바