목록데싸 추가 독학 (16)
무냐의 개발일지

* 시간복잡도 비교 (worst case) 배열 한방향 연결리스트 양방향 연결리스트 읽기/쓰기 O(1) moveAfter/ Before O(n) O(1) pushFront (insert 라고 보면 될듯) O(n) O(1) O(1) pushBack (append) O(1) O(n) O(1) popFront (pop(0)) O(n) O(1) O(1) popBack (pop) O(1) O(n) O(1) Insert (insert(3)) O(n) O(n) O(1) Remove (remove) O(n) O(n) O(1) Search O(n) O(n) O(n) Index/ Count O(n) append, pop 연산이 평균 O(1)시간이다. resize가 일어나지 않는 한 O(1) 걸리고, append할 때마다 ..
와 이거 진짜 오래걸렸네 ㅜㅜㅜ 흑흑 그래도 끈질기게 해서 결국 해냈다 !!!! 첫번째 방법 #정상작동하는 코드 Operators = ['+', '-', '*', '/', '(', ')', '^'] # collection of Operators Priority = {'+':1, '-':1, '*':2, '/':2, '^':3} # dictionary having priorities of Operators def infixToPostfix(expression): stack = [] # initialization of empty stack output = '' for character in expression: if character not in Operators: #숫자/문자들은 결과에 추가 output+..

(점프 투 파이썬) (파이썬 300제) # 클래스는 타입을 만드는 도구디 class Calculator: def __init__(self): self.result=0 def add(self, num): self.result += num return self.result cal1 = Calculator() cal2 = Calculator() print(cal1.add(3)) print(cal1.add(5)) print(cal2.add(6)) print(cal2.add(8)) 결과 : 3 8 6 14 Calculator : 클래스 cal1, cal2 : 객체 클래스 안에 구현된 함수는 다른 말로 메서드(method)라고 부른다. setdata 메서드에는 self, first, second 총 3개의 매개변수..

In ARIMA time series forecasting, the first step is to determine the number of differencing required to make the series stationary. ARIMA 의 첫 번째 단계는 시계열을 정상적으로 만들기 위해 필요한 차분의 수 !! Since testing the stationarity of a time series is a frequently performed activity in autoregressive models, the ADF test along with KPSS test is something that you need to be fluent in when performing time series anal..
import pandas as pd import numpy as np import matplotlib.pyplot as plt import seaborn as sns from scipy.stats import norm from scipy import stats #데이터 전처리 : 스케일링, 정규화, 인코딩 from sklearn import preprocessing from sklearn.preprocessing import LabelEncoder from sklearn.preprocessing import StandardScaler #머신러닝 전단계 : 데이터를 훈련/val 세트로 나누기, 교차검증 #ensemble : 랜덤포레스트와 같은 알고리즘 제공 from sklearn.model_selectio..

목차 각 단원이 약 40쪽씩 이뤄져있다. 한 주에 20쪽씩하면 되겠다. 일단 오늘은 1단원 가볍게 끝내기. 1. EDA (탐색적 데이터 분석) (p.20 ~ 60) 2. 데이터와 표본분포 (p.64 ~ 99) 3. 통계적 실험과 유의성 검정 (p.102 ~ 149) 4. 회귀와 예측 Regression (p.151 ~ 197) 5. 분류 Classification (p.200 ~ 236) 6. 통계적 머신러닝 Machine Learning (p.238 ~ 276) 7. 비지도 학습 Unsupervised Learning (p.280 ~ 314) 1. EDA (탐색적 데이터 분석) 1.1 정형 데이터 : 수치형데이터 (continuous, discrete) & 범주형 데이터 (categorical - bi..

상관계수 상관계수는 변수들 간의 관계를 알아볼 때 유용한 개념입니다. 특정 데이터에 대한 상관관계를 볼 수 있습니다. 상관계수는 -1부터 1사이로 구성되고, 0.3부터 0.7 사이면 뚜렷한 양적 선형관계, 0.7 이상이면 강한 양적 상관관계라 할 수 있습니다. # 피처 간 상관관계 히트맵 correlation_matrix = df.corr() plt.figure(figsize=(10, 8)) sns.heatmap(correlation_matrix, annot=True, fmt = '.2f', cmap='coolwarm', linewidths=0.5) plt.title('Correlation Heatmap') plt.show() * corr(numeric_only= True) 를 해줘야, 수치형 데이터인 ..
| Scaling ① Scaling : 데이터의 범위를 조정하는 과정. MinMaxScaler, StandardScaler 등을 사용해 특성의 스케일을 조정 합니다. 거리기반 모델을 쓸때는 반드시 스케일링 써서 각각 변수의 특성에 따라 동일한 스케일을 지닐수 있게 맞춰주는것이 중요 합니다. ② 주요 Scaling 방법 : - Standardization : (x-mean/ std) 결과적으로 데이터는 평균이 0이고 표준편차가 1인 분포를 갖게 됩니다. - Robust Scaling : (x-Q2) / (Q3-Q1) 이 방법은 중앙값과 사분위 범위를 사용하여 데이터를 스케일링합니다. 표준화와 유사하지만, 이상치의 영향을 덜 받습니다. - MinMaxScaler : (x-min)/ (max-min) 데이터를..