rnn lstm 예제 속시원내과 | 2019년 8월 3일

그러나 내가 배운 것과 조화를 이루려는 기본 아키텍처에 대한 몇 가지 질문이 있습니다. 나는 여기에 질문을 게시 : 내가이 포럼에 게시하기에 너무 오래 느꼈다 http://stackoverflow.com/questions/38714959/understanding-keras-lstms. 상태 : 나는 예를 들어 A와 같은 마지막 시대 [Y1] 출력의 교육 결과처럼 의미 네트워크의 [X2] 입력은 마지막 시대에서 A가 될 것인가? 이제 다시 재생 신경망 자체로 돌아갑니다. 재발신경망은 매우 유연합니다. 위에 표시된 구현에서, 우리는 많은 – 투 – 다수 모델을 가지고 – 다른 말로, 우리는 입력 시퀀스가 “여자는 술집에 걸어 …” 그리고 많은 출력 – $h_0$ $h_t$. 우리는 또한 여러 개의 다른 구성을 가질 수 있습니다. 또 다른 옵션은 일대다, 즉 하나의 입력을 제공, 말 “소녀”와 $h_t $에 여러 출력 $h을 예측 (즉, 하나의 시작 단어를 기반으로 문장을 생성하려고). 또 다른 구성은 많은 일대일 즉, 문장처럼 입력으로 많은 단어를 제공 “여자가 술집에 걸어, 그녀는 `나는 제발 음료를 가질 수 있습니까?`라고 말했다. 바텐더는 `확실히 {}”라고 말하고 다음 단어 즉 {}를 예측합니다. 아래 다이어그램은 각각 일대일 및 다대일 구성의 예를 보여 주며(출력 옆에 있는 단어는 교육 중에 제공하는 대상 단어입니다). 유사한 모방 동작은 앞서 여러 시간 단계를 예측할 때도 발생합니다(예: 앞의 두 단계를 예측하는 경우 모델은 이전 두 시간 단계를 출력하는 방법을 학습합니다).

셰익스피어 드라마를 복제하고 Deeplearning4j로 구현한 LSTM의 설명예는 여기에서 찾을 수 있습니다. API는 설명이 아닌 위치에 주석이 있습니다. 궁금한 점이 있으시면 Gitter에 가입해 주십시오. 모델에 맞게 사용자 지정할 수 있는 다양한 하이퍼매개 변수가 있지만, 예제에서는 정의된 하이퍼매개 변수를 계속 사용해 보겠습니다. 왜 예브게니를 볼 수 없습니다., 죄송합니다 나는 예가 없습니다. 즉, 피드포워드 네트워크는 시간에 따라 순서에 대한 개념이 없으며, 이 네트워크가 고려하는 유일한 입력은 현재 의 예에 노출된 예제입니다. 피드 포워드 네트워크는 최근 과거에 대한 기억 상실증입니다; 그들은 향수만 훈련의 조형 순간을 기억한다. 친애하는 박사 제이슨, 당신의 대답을 주셔서 감사합니다 : 나는 py3.6을 제외하고, 관련 파이썬 패키지의 위의 목록에 따라 `lstmexample2.py`로 위의 70 줄을 저장, 여기에 있습니다 : 어떤 책은 타임 시리즈 케라와 완전한 예 / 코드를 제공? 앞으로의 기간을 예측하고 다른 예측 변수를 추가하려고 합니까? 그것은 달성 할 수 있습니까? 이 경우 LSTM을 사용하여 2014년 12월부터 2018년 5월까지 비트코인 가격을 예측하는 타임시리즈 분석을 구현할 예정입니다. 나는 간단하고 간단 발견 이후 CryptoDataDownload에서 기록 데이터를 사용했다. 환경을 설정하는 단순성과 가속화된 무료 GPU로 인해 Google의 Colab 개발 환경을 사용했기 때문에 모델의 교육 시간을 쉽게 할 수 있습니다. Colab을 처음 접하는 경우 초보자 가이드를 소개합니다.

이 예제의 bitcoin .csv 파일 및 전체 코드는 내 github 프로필에서 얻을 수 있습니다. LSTMS의 입력 구조는 위에서 설명한 대로 [샘플, 시간 단계, 기능]입니다. 실제로 위의 검색에 대한 예가 있습니다(창 메서드의 섹션 참조). 이것은 좋은 예입니다. 나는 딥 러닝과 케라스에서 아주 새로운. 그러나이 웹 사이트는 매우 도움이되었습니다. 나는 더 많은 것을 배우고 싶다. 예를 들어 첫 번째 예제와 함께 trainX(trainX[0])의 첫 번째 타임스텝을 사용하면 모델의 예측이 t+1(trainX[1])이 무엇인지 예측하려고 하지 않는 것처럼 보이지만 특정 타임스텝에서 모델에 맞는 것으로 생각되는 것을 모방하기만 하면 됩니다(trainX[0] ) 즉,

Comments are closed.