일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- Git
- 프로그래머스 파이썬
- ubuntu
- AI 경진대회
- 데이콘
- 코로나19
- hackerrank
- 백준
- leetcode
- github
- Baekjoon
- Docker
- 캐치카페
- Kaggle
- ChatGPT
- 맥북
- 편스토랑
- 편스토랑 우승상품
- 우분투
- PYTHON
- gs25
- dacon
- SW Expert Academy
- programmers
- 더현대서울 맛집
- 프로그래머스
- 파이썬
- 자연어처리
- 금융문자분석경진대회
- Real or Not? NLP with Disaster Tweets
- Today
- Total
목록
반응형
전체 글 (1651)
솜씨좋은장씨
가장 먼저 Okt 형태소 분석기를 활용하여 토큰화 시 stem항목을 True에서 False로 바꾸어 만든 학습데이터셋으로 학습을 시켜 보았습니다.from tqdm import tqdm X_train = [] for i in range(len(train_data['clear_text2'])): temp_X = [] temp_X = okt.morphs(train_data['clear_text2'].iloc[i], stem=False) # 토큰화 temp_X = [word for word in temp_X if not word in stopwords] # 불용어 제거 X_train.append(temp_X) 첫번째 제출 모델 (Google Colab -TPU)model4 = Sequential() model4..
오늘은 가장 좋았던 모델에서 하이퍼 파라미터를 바꾸어 시도해보았습니다. 1. Embedding 레이어에서 output_dim 만 100 -> 128로 변경 (Google Colab -TPU)model3 = Sequential() model3.add(Embedding(max_words, 128)) model3.add(LSTM(128)) model3.add(Dense(2, activation='sigmoid')) model3.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) history3 = model3.fit(X_train, y_train, epochs=2, batch_size=32, validation_split=0...
첫번째 시도해본 모델 (Google Colab -GPU) ELMo를 활용하여보기로 하였습니다.import tensorflow_hub as hub import tensorflow as tf from keras import backend as K sess = tf.Session() K.set_session(sess) elmo = hub.Module("https://tfhub.dev/google/elmo/1", trainable=True) sess.run(tf.global_variables_initializer()) sess.run(tf.tables_initializer()) def ELMoEmbedding(x): return elmo(tf.squeeze(tf.cast(x, tf.string)), as_dic..
1. 아이디어형태소 분석기를 Okt에서 Mecab으로 바꾸어 토큰화 한 후 모델을 학습시켜 결과 확인 Mecab을 활용하여 토큰화하니 문자데이터의 최대 길이가 666으로 증가하였습니다.from keras.layers import Embedding, Dense, LSTM from keras.models import Sequential from keras.preprocessing.sequence import pad_sequences max_len = 666 # 전체 데이터의 길이를 666로 맞춘다 X_train = pad_sequences(X_train, maxlen=max_len) X_test = pad_sequences(X_test, maxlen=max_len) 모델링첫번째 시도해본 모델 (Google ..
1. 도전하게 된 계기 [대회] 14회 금융문자 분석 경진대회 dacon.io idEANS 팀원들과 함께했던 COMPAS 화성시 최적 시내버스 노선 제시 공모전을 잘 마무리하고 새로운 목표를 설정도 할겸 이번엔 멀티캠퍼스에서 자연어 처리를 들었던 내용을 살려 금융문자 분석 경진대회에 도전해보기로 했습니다. [대회] 14회 금융문자 분석 경진대회 - [Dacon Baseline] 초급자용 코드 /*! * * Twitter Bootstrap * */ /*! * Bootstrap v3.3.7 (http://getbootstrap.com) * Copyright 2011-2016 Twitter, Inc. * Licensed under MIT (https://github.com/twbs/bootstrap/blob/..
장동현(Donghyun Jang) somjang@kakao.com 연락이 필요하면 메일로 부탁드립니다! Sejong University - Computer Engineering GitHub : https://github.com/SOMJANG 2017년 2월 세종대학교 컴퓨터공학과 졸업 2017년 3월 1일 ~ 2019년 6월 29일 제 30 기계화 보병사단 정보통신대대 다중무선소대장/본부중대장 - 중위 전역 2019년 7월29일 ~ 2019년 11월 29일 멀티캠퍼스 - 혁신성장 청년인재 집중양성 교육 이수 ( 인공지능 자연어처리 기업데이터 분석 C반 ) - 공로상 2019년 12월 2일 MBN 빅데이터 아이디어 경진대회 우수상(웰컴에프엔디) 수상 - 프랜차이즈 정보제공 플랫폼 2019년 12월 20일 ..
11월 29일, 드디어 지난 7월 29일에 시작하여 장장 4개월, 100일, 800시간의 여정을 지나 인공지능 자연어처리 기업데이터 분석 C반 교육을 수료하였습니다. 오늘은 이 국비지원 교육을 어떻게 수강하게 됐었는지 하면서 어떤걸 해보았는지 적어보려합니다. 1. 교육 신청 2년 4개월의 군생활이 끝나고 무얼 해야할지 모르고 방황하던 지난 7월! 같이 전역한 군 동기가 전에 함께 신청하려고 했다가 아직 장교로 군 생활중이어서 지원이 불가했던 멀티캠퍼스라는 교육기관에서 다시 새로운 국비지원 교육이 열렸고 본인도 면접을 보고 왔다며 저에게도 신청해보라고 하여 신청을 하고 면접을 보았습니다. 2. 면접 면접은 역삼동에 있는 멀티캠퍼스 건물 16층에서 진행되었습니다. 복장은 검은색 슬랙스에 셔츠에 운동화를 신고..
지난 11월 10일 친구와 함께 고양시에 있는 현대모터스튜디오를 다녀왔습니다. 코엑스에 있던 모터스튜디오와 달리 규모도 크고 전시도 있어 신청을하고 출발하였습니다. 친구가 디지털 클러스터가 적용된 차량들의 클러스트들을 비교해보고 싶다고하여 조금 일찍 도착하였습니다. 안내를 받아 지하주차장에 주차를하고 1층으로 올라가니 정말 규모가 큰 곳임을 알 수 있었습니다. 넓은 공간에 최근에 출시한 베뉴부터 제네시스 G70, G80, G90, 코나, 넥소, 산타페, 펠리셰이드, Xient 등등 정말 많은 차들이 전시되어 있었습니다. 그 사이사이를 이렇게 생긴 로봇이 돌아다니며 안내 및 기념사진 촬영을 해주고 있었습니다. 10시에 예정되어있는 테마시승 전까지 여러 차량을 돌아다니면서 이것저것 살펴보았습니다. 가장 인상..