Notice
Recent Posts
Recent Comments
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- Docker
- AI 경진대회
- 금융문자분석경진대회
- 코로나19
- 더현대서울 맛집
- Real or Not? NLP with Disaster Tweets
- 프로그래머스
- ubuntu
- 파이썬
- Kaggle
- 백준
- 편스토랑 우승상품
- Baekjoon
- 자연어처리
- Git
- github
- 데이콘
- PYTHON
- SW Expert Academy
- 편스토랑
- 캐치카페
- hackerrank
- programmers
- dacon
- leetcode
- 프로그래머스 파이썬
- 맥북
- ChatGPT
- 우분투
- gs25
Archives
- Today
- Total
솜씨좋은장씨
DACON 금융문자분석 공모전 - 도전 4일차 본문
728x90
반응형
오늘은 가장 좋았던 모델에서 하이퍼 파라미터를 바꾸어 시도해보았습니다.
1. Embedding 레이어에서 output_dim 만 100 -> 128로 변경 (Google Colab -TPU)
model3 = Sequential()
model3.add(Embedding(max_words, 128))
model3.add(LSTM(128))
model3.add(Dense(2, activation='sigmoid'))
model3.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
history3 = model3.fit(X_train, y_train, epochs=2, batch_size=32, validation_split=0.1)
epoch | 2 | batch_size | 32 |
optimizer | adam | validation_split | 0.1 |


2. Embedding 레이어에서 output_dim 100 -> 128 / LSTM 128 -> 256 (Google Colab -TPU)
model4 = Sequential()
model4.add(Embedding(max_words, 128))
model4.add(LSTM(256))
model4.add(Dense(2, activation='sigmoid'))
model4.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
history4 = model4.fit(X_train, y_train, epochs=2, batch_size=32, validation_split=0.1)
epoch | 2 | batch_size | 32 |
optimizer | adam | validation_split | 0.1 |


3. LSTM 128 -> 256 (Google Colab -TPU)
model5 = Sequential()
model5.add(Embedding(max_words, 100))
model5.add(LSTM(256))
model5.add(Dense(2, activation='sigmoid'))
model5.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
history5 = model5.fit(X_train, y_train, epochs=2, batch_size=32, validation_split=0.1)
epoch | 2 | batch_size | 32 |
optimizer | adam | validation_split | 0.1 |


첫번째 제출
둘중에 validation accuracy가 더 좋은 첫번째 모델을 제출해보았습니다.
첫번째 제출 결과

두번째 제출
세번째 모델을 제출해보았습니다.
첫번째 제출 결과

이번에는 데이터셋 선별을 다시해서 학습을 시켜보기로 했습니다.
기존에는 정상 문자와 스미싱 문자의 비율을 1 대 1 로 맞췄다면
이번에는 정상문자와 스미싱 문자의 비율을 1.5 대 1 로 맞추어 보았습니다.
그 데이터를 가지고 가장 점수가 좋았던 모델을 학습시켜 보았습니다.
세번째 제출 (Google Colab -TPU)
model3 = Sequential()
model3.add(Embedding(max_words, 100))
model3.add(LSTM(128))
model3.add(Dense(2, activation='sigmoid'))
model3.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
history3 = model3.fit(X_train, y_train, epochs=2, batch_size=32, validation_split=0.1)
epoch | 2 | batch_size | 32 |
optimizer | adam | validation_split | 0.1 |


세번째 제출 결과

순위 | 점수 | epoch / batch | optimizer | val_split | train_data | 특수문자제거 | colab | ||
1 | |||||||||
2 | 0.972980365 | 2 / 32 | adam | 0.1 | model_kb_dacon02_trainset.csv | O | TPU | Mecab | 9 |
3 | 0.97262973 | 5 / 32 | adam | 0.1 | |||||
4 | |||||||||
5 | 0.972030154 | 2 / 32 | adam | 0.1 | model_kb_dacon02_trainset.csv | O | TPU | Okt | 10 |
6 | 0.96873422 | 5 / 32 | adam | 0.1 | model_kb_dacon01_trainset.csv | X | GPU | Okt | 6 |
7 | 0.96549088 | 5 / 32 | rmsprop | X | model_kb_dacon01_trainset.csv | X | TPU | Okt | 2 |
8 | 0.9608906 | 5 / 32 | adam | X | model_kb_dacon01_trainset.csv | X | TPU | Okt | 3 |
9 | |||||||||
10 | 0.95197054 | 5 / 32 | adam | 0.1 | model_kb_dacon01_trainset.csv | X | TPU | Mecab | 5 |
11 | |||||||||
12 | 0.701388499 | 3 / 32 | adam | X | model_kb_dacon01_trainset.cs | X | GPU | ELMo | 7 |
정상문자의 데이터 셋을 더 늘려서 학습하면 더 좋을 줄 알았는데 아니었습니다.
계속 여러 파라미터를 바꿔보기도하고 다른 모델을 사용해보려고 합니다.
'DACON > KB 금융문자 분석 경진대회' 카테고리의 다른 글
DACON 금융문자분석 공모전 - 도전 6일차 (8) | 2019.12.19 |
---|---|
DACON 금융문자분석 공모전 - 도전 5일차 (0) | 2019.12.18 |
DACON 금융문자분석 공모전 - 도전 3일차 (0) | 2019.12.16 |
DACON 금융문자분석 공모전 - 도전 2일차 (0) | 2019.12.15 |
DACON 금융문자분석 공모전 - 도전 1일차 (4) | 2019.12.14 |
Comments