파이썬 데이터과학 1일차 - 초보자를 위한 데이터분석, 데이터시각화 (이태영)Tae Young Lee
파이썬 데이터과학 - 기초 과정(1일차)
- 데이터분석, 데이터시각화
- jupyter notebook, numpy, pandas, matplotlib, seaborn
2차 과정은 따로 올리겠습니다.
문의 및 제안 : se2n@naver.com
데이터 소스 : https://github.com/sh2orc/datascience
오늘날 멀티코어 프로세서 세상은 이기종 컴퓨팅 환경이 대부분이라 해도 과언이 아니다.
병렬 컴퓨팅은 비약적인 속도 향상과 전력 소비 감소라는 장점이 있지만 사용하기가 까다롭고 특히 다양한 아키텍처로 이루어진 이기종 컴퓨팅 환경에서는 소프트웨어 개발이 더욱 어려워진다.
이 프리젠테이션에서는 이기종 컴퓨팅 환경에서의 병렬 처리를 위한 프로그래밍 언어를 소개하고 OpenCV와 같은 영상처리 라이브러리에서의 활용 예시를 보여준다
파이썬 데이터과학 1일차 - 초보자를 위한 데이터분석, 데이터시각화 (이태영)Tae Young Lee
파이썬 데이터과학 - 기초 과정(1일차)
- 데이터분석, 데이터시각화
- jupyter notebook, numpy, pandas, matplotlib, seaborn
2차 과정은 따로 올리겠습니다.
문의 및 제안 : se2n@naver.com
데이터 소스 : https://github.com/sh2orc/datascience
오늘날 멀티코어 프로세서 세상은 이기종 컴퓨팅 환경이 대부분이라 해도 과언이 아니다.
병렬 컴퓨팅은 비약적인 속도 향상과 전력 소비 감소라는 장점이 있지만 사용하기가 까다롭고 특히 다양한 아키텍처로 이루어진 이기종 컴퓨팅 환경에서는 소프트웨어 개발이 더욱 어려워진다.
이 프리젠테이션에서는 이기종 컴퓨팅 환경에서의 병렬 처리를 위한 프로그래밍 언어를 소개하고 OpenCV와 같은 영상처리 라이브러리에서의 활용 예시를 보여준다
Apache MXNet은 매우 빠르게 성장하고 있는 딥러닝 오픈소스 프레임워크로 클라우드, 엣지 디바이스 및 모바일 분야에서 각광을 받고 있습니다. 아마존, NVIDIA, 인텔, 삼성전자 등 500여 명의 공헌자들이 MXNet 커뮤니티에서 활동하고 있습니다. 본 세션에서는 MXNet에 대한 소개와 특징, 그리고 인공 지능 및 기계 학습에 관심이 많은 대학생 및 데이터 과학자, 개발자를 위한 코드 공헌 경험 및 방법을 소개합니다.
AI 연구자를 위한 클린코드 - GDG DevFest Seoul 2019Kenneth Ceyer
올바른 코드 작성을 고민하는 연구자들을 위하여 - 클린코드는 여러분의 코드를 복잡한 패턴으로 구현하여 시간을 잡아먹는, 겉만 화려한 장식이 아닙니다. 모델을 구현하고, 또 그것을 테스트 할 때 이것이 정말 올바른 코드인지 궁금하셨나요? 이 세션에서는 연구 모델을 작성할 때 발견할 수 있는, 빈번한 코드 악취(Code smell)들과, 그것들을 어떻게 없앨 수 있을지에 대해서 알아봅니다. 코드에 영혼을 불어넣고, 그 어떤 코드라도 부끄럽지 않게 구현할 수 있는 연구자들이 되어봅시다!
Let's make APM by instrumenting Nodejs through the knowledge gained through tracing. Creating clues that facilitate tracking becomes a milestone for latecomers, like a snow-footprint.
제 19회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [전진 4드론] : RAD(Reinforcement learning method for ...BOAZ Bigdata
데이터 분석 프로젝트를 진행한 전진4드론 팀에서는 아래와 같은 프로젝트를 진행했습니다.
RAD(Reinforcement learning method for Autonomous Drone)
20기 정재준 한양대학교 에리카캠퍼스 프랑스학과
20기 이영현 한양대학교 대학원 인공지능학과
20기 이찬 경희대학교 컴퓨터공학과
20기 정원준 건국대학교 컴퓨터공학부
6. Jupyter Notebook 실행
윈도우 시작 메뉴 > Anaconda Prompt 실행
> Activate py35
> jupyter notebook
Step-1
“12편 Python + Pandas 활용” 소스 파일 오픈 및 실행
Jupyter Home > 12.Python&Pandas 활용.ipynb > 열기
Cell 메뉴 > Run All
Step-2
Training 및 Test 데이터 생성
Normal = df[df.result == 0]
Bad = df[df.result == 1]
X_train_normal = Normal.sample(frac=0.8)
X_test_bad = Bad.sample(frac=0.2)
X_train_normal = X_train_normal.drop(['result'], axis=1)
X_test_bad = X_test_bad.drop(['result'], axis=1)
inputX_train_normal = X_train_normal.as_matrix()
inputX_test_bad = X_test_bad.as_matrix()
Step-3
10. 변수 초기화 및 학습모델 저장 설정
init = tf.global_variables_initializer()
save_model = os.path.join("D:model", 'saved_autoencoder_model.ckpt')
saver = tf.train.Saver()
Step-10
손실값 및 최적화 정의
loss = tf.reduce_mean(tf.pow(x_true - x_pred, 2))
optimizer = tf.train.AdamOptimizer(learning_rate).minimize(loss)
Step-9
11. 오토인코더 신경망 학습 및 모델 생성
with tf.Session() as sess:
sess.run(init)
for i in range(1, epoch_steps+1):
for batch in range(int(n_batch/batch_size)):
batch_x=inputX_train_normal[batch*batch_size : (1+batch)*batch_size]
_, l = sess.run([optimizer, loss], feed_dict={X: batch_x})
if i % display_step == 0 or i==1:
print('Epoch %i: Minibatch Loss: %f' % (i, l))
print('### AutoEncoder Training/Model 완료 ###')
save_path = saver.save(sess, save_model)
print("Model saved: %s" % save_path)
Step-11
12. 오토인코더 모델 테스트
save_model = os.path.join('D:model', 'saved_autoencoder_model.ckpt')
saver = tf.train.Saver()
with tf.Session() as sess:
saver.restore(sess, save_model)
idx1 = 10
result1 = sess.run(decoder_op, feed_dict={X: inputX_train_normal [[idx1]]})
print("### 정상 데이터 ###")
print("오토인코더 입력 값:", np.around(inputX_train_normal[[idx1]], decimals=2) , ",sum: %0.2f" %
np.sum(inputX_train_normal[idx1]))
print("오토인코더 출력 값:", np.around(result1.astype(float), decimals=2), ",sum: %0.2f" %
np.sum(result1[0]))
print("")
print("------------------------------------------------------------------------------------------")
print("")
idx2 = 20
result2 = sess.run(decoder_op, feed_dict={X: inputX_test_bad[[idx2]]})
print("### 비정상 데이터 ###")
print("오토인코더 입력 값:", np.around(inputX_test_bad[[idx2]],decimals=2)
, ",sum: %0.2f"% np.sum(inputX_test_bad[idx2]) )
print("오토인코더 출력 값:", np.around(result2.astype(float),decimals=2)
, ",sum: %0.2f"% np.sum(result2[0]))
Step-12
13. 실무로 배우는 빅데이터 기술
확장하기 13편–Tensorflow Autoencoder
[ 강의자료 ]
동 영 상: 유튜브 www.youtube.com
실습문서: 슬라이드쉐어 www.slideshare.net