반응형
이상치(Outlier) 제거하는 Python 예제 코드
Deep Learning & Machine Learning/강좌&예제 코드2023. 10. 23. 09:22이상치(Outlier) 제거하는 Python 예제 코드

표준화 전후로 이상치(Outlier)를 제거하는 Python 예제 코드입니다. 2022. 4. 5 최초작성 이상치는 대부분의 값과 다르게 아주 작거나 아주 큰 값을 의미합니다. 평균 ± 표준편차 × 3 을 벗어나는 것을 이상치로 취급하여 제거해본 예제 코드입니다. 표준화를 적용 전후에 각각 이상치를 제거해봤습니다. 전체 코드입니다. import pandas as pd import numpy as np import matplotlib.pyplot as plt from collections import Counter # 5개의 특징으로 구성된 샘플 40개 생성 a = np.random.randint(1, 13, size=200).reshape(40, 5) df_raw = pd.DataFrame(a) # 0번..

표준정규분포 표준화 (standardization)
Deep Learning & Machine Learning/강좌&예제 코드2023. 10. 23. 09:21표준정규분포 표준화 (standardization)

상관 계수(Correlation coefficient) 중 하나인 피어슨 상관 계수(Pearson Correlation Coefficient)의 개념에 대해 정리했습니다. 2022. 5. 23 최초작성 상관 계수 상관 계수는 두 변수 간의 연관성 강도를 측정합니다. 본 글에서는 상관 계수 중 하나인 피어슨 상관 계수에 대해 알아봅니다. 피어슨 상관 계수는 두 변수 간의 선형 연관 강도를 측정합니다. 피어슨 상관 계수 피어슨 상관 계수는 두 변수 간의 선형 연관 강도를 측정합니다. 상관 계수의 범위는 항상 -1과 1 사이입니다. 계수의 부호는 관계의 방향을 알려줍니다. 양수 값은 두 변수가 같은 방향으로 함께 변경됨을 의미하고 음수 값은 두 변수가 반대 방향으로 변경됨을 의미합니다. 양의 상관관계는 한 변..

정규 분포(Normal Distribution)와 표준 정규 분포(Standard Normal Distribution)의 차이
Deep Learning & Machine Learning/강좌&예제 코드2023. 10. 23. 09:21정규 분포(Normal Distribution)와 표준 정규 분포(Standard Normal Distribution)의 차이

상관 계수(Correlation coefficient) 중 하나인 피어슨 상관 계수(Pearson Correlation Coefficient)의 개념에 대해 정리했습니다. 2022. 5. 23 최초작성 상관 계수 상관 계수는 두 변수 간의 연관성 강도를 측정합니다. 본 글에서는 상관 계수 중 하나인 피어슨 상관 계수에 대해 알아봅니다. 피어슨 상관 계수는 두 변수 간의 선형 연관 강도를 측정합니다. 피어슨 상관 계수 피어슨 상관 계수는 두 변수 간의 선형 연관 강도를 측정합니다. 상관 계수의 범위는 항상 -1과 1 사이입니다. 계수의 부호는 관계의 방향을 알려줍니다. 양수 값은 두 변수가 같은 방향으로 함께 변경됨을 의미하고 음수 값은 두 변수가 반대 방향으로 변경됨을 의미합니다. 양의 상관관계는 한 변..

상관 계수(Correlation coefficient) 개념
Deep Learning & Machine Learning/강좌&예제 코드2023. 10. 23. 09:20상관 계수(Correlation coefficient) 개념

상관 계수(Correlation coefficient) 중 하나인 피어슨 상관 계수(Pearson Correlation Coefficient)의 개념에 대해 정리했습니다. 2022. 5. 23 최초작성 상관 계수 상관 계수는 두 변수 간의 연관성 강도를 측정합니다. 본 글에서는 상관 계수 중 하나인 피어슨 상관 계수에 대해 알아봅니다. 피어슨 상관 계수는 두 변수 간의 선형 연관 강도를 측정합니다. 피어슨 상관 계수 피어슨 상관 계수는 두 변수 간의 선형 연관 강도를 측정합니다. 상관 계수의 범위는 항상 -1과 1 사이입니다. 계수의 부호는 관계의 방향을 알려줍니다. 양수 값은 두 변수가 같은 방향으로 함께 변경됨을 의미하고 음수 값은 두 변수가 반대 방향으로 변경됨을 의미합니다. 양의 상관관계는 한 변..

정규 분포와 연속 확률 분포 개념
Deep Learning & Machine Learning/강좌&예제 코드2023. 10. 23. 09:18정규 분포와 연속 확률 분포 개념

다음 링크의 글을 보면서 정규 분포(Normal Distribution)에 대한 개념을 정리한 문서입니다. 추가로 연속 확률 분포(continuous probability distribution)에 관한 내용을 더 찾아서 넣었습니다. https://medium.com/analytics-vidhya/normal-distribution-and-machine-learning-ec9d3ca05070 2022. 7. 12 최초작성 정규 분포 정규 분포(Normal Distribution) 또는 가우스 분포(Gaussian Distribution)는 연속 확률 분포(continuous probability distribution)입니다. 곡선의 중앙에 점선으로 표시한 데이터의 평균을 중심으로 곡선이 양쪽으로 50%..

랜덤 포레스트 개념
Deep Learning & Machine Learning/강좌&예제 코드2023. 10. 22. 05:46랜덤 포레스트 개념

아래 링크들을 참고하여 랜덤 포레스트에 대해 간단히 정리했습니다. https://www.section.io/engineering-education/introduction-to-random-forest-in-machine-learning/ https://wooono.tistory.com/104 2022. 10. 13 최초작성 랜덤 포레스트(random forest) 랜덤 포레스트는 회귀(regression) 및 분류(classification) 문제를 해결하는 데 사용할 수 있는 머신 러닝(machine learning) 기법입니다. 여러 개의 의사 결정 트리(decision trees)로 구성되는데 각각의 의사 결정 트리는 출력 결과를 내놓습니다. 최종 결과를 얻기 위해 앙상블 기법중 하나인 배깅(bag..

Deep Learning & Machine Learning/Keras2023. 10. 22. 05:45Keras 모델 전체 파라미터 개수 세기

Keras 모델의 전체 파라미터 개수를 출력하는 예제 코드입니다. 2023. 7. 19. 최초작성 from tensorflow.keras.applications import EfficientNetB0 # 모델을 로드합니다. model = EfficientNetB0(weights='imagenet') # 전체 파라미터 개수를 가져와 출력합니다. total_params = model.count_params() print(f'전체 파라미터 개수 = {total_params}') 실행해보면 EfficientNetB0 모델의 전체 파라미터 개수를 출력해줍니다. 전체 파라미터 개수 = 5330571

YOLO v4 실행시키는 방법
Deep Learning & Machine Learning/YOLO2023. 10. 21. 22:16YOLO v4 실행시키는 방법

다음 깃허브에 있는 욜로 YOLO V4를 실행하는 방법을 소개합니다. hunglc007 / tensorflow-yolov4-tflite ( https://github.com/hunglc007/tensorflow-yolov4-tflite ) 2020. 05. 03 최초작성 2020. 08. 22 다음과 같은 에러가 발생하여 확인해보니 다크넷(darknet)에서 배포하는 yolov4.weights를 그대로 사용하는 방식에서 Tensorflow에서 사용하는 포맷으로 바꾸어서 하는 방식으로 바뀌었네요. 변경된 방식으로 포스트를 수정하였습니다. "C:\Users\webnautes\AppData\Local\Programs\Python\Python37\lib\site-packages\tensorflow\python\..

XGBoost 개념 정리
Deep Learning & Machine Learning/딥러닝&머신러닝 개념2023. 10. 18. 22:22XGBoost 개념 정리

XGBoost 관련 개념을 정리한 문서입니다. 논문을 보고 진행했어야 했는데 인터넷 자료를 바탕으로 작성하게 되었네요. 수식은 이해안되는 부분이 아직은 많아서 제외시켰습니다. 추후 논문을 확인해볼 생각입니다. 2022. 2. 22 최초작성 앙상블(Ensemble) 앙상블(Ensemble)은 여러 개의 모델을 사용해서 각각의 예측 결과를 만들고 그 예측 결과를 기반으로 최종 예측결과를 결정하는 방법입니다. 대표적인 예로 배깅(Bagging)과 부스팅(Boosting)이 있습니다. 베깅(Bagging) Bagging은 분할정복(divide and conquer and combine)과 같은 것입니다. 먼저 전체 훈련 데이터 세트를 여러개의 작은 샘플 훈련 데이터 세트로 나눕니다. 각각의 샘플 훈련데이터셋 별..

미분으로 곡선의 노이즈 양 측정하는 파이썬 예제코드
Deep Learning & Machine Learning/강좌&예제 코드2023. 10. 18. 22:18미분으로 곡선의 노이즈 양 측정하는 파이썬 예제코드

미분을 사용하여 사인 곡선과 노이즈 추가한 사인 곡선의 노이즈 양을 측정하는 파이썬 코드입니다. 2023. 6. 17 최초작성 import numpy as np import matplotlib.pyplot as plt np.random.seed(0) x = np.linspace(0, 10, 100) y = np.sin(x) noise_y = np.sin(x) + np.random.normal(0, 0.3, size=x.size) # 미분 값 계산 dy = np.gradient(y, x) noise_dy = np.gradient(noise_y, x) # 노이즈 체크 (값의 절대값의 평균) noise_check_y = np.mean(np.abs(y)) noise_check_noise_y = np.mean(n..

반응형
image