Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- Growth hacking
- 리프 중심 트리 분할
- 로그 변환
- ImageDateGenerator
- ARIMA
- 그룹 연산
- 스태킹 앙상블
- XGBoost
- 캐글 신용카드 사기 검출
- tableau
- 3기가 마지막이라니..!
- 마케팅 보다는 취준 강연 같다(?)
- 캐글 산탄데르 고객 만족 예측
- 부트 스트래핑
- sql
- WITH CUBE
- 데이터 핸들링
- 컨브넷
- WITH ROLLUP
- python
- splitlines
- 그로스 마케팅
- pmdarima
- 인프런
- 데이터 증식
- 분석 패널
- 그로스 해킹
- lightgbm
- DENSE_RANK()
- 데이터 정합성
Archives
- Today
- Total
LITTLE BY LITTLE
[3] 파이썬 머신러닝 완벽가이드 - 판다스(데이터 핸들링) 본문
*목차
- 파이썬 기반의 머신러닝과 생태계 이해
- 머신러닝의 개념
- 주요 패키지
- 넘파이
- 판다스 (데이터 핸들링) (39p)
- 정리
- 사이킷런으로 시작하는 머신러닝(87p)
- 사이킷런 소개
- 첫번째 머신러닝 만들어보기 - 붓꽃 품종 예측
- 사이킷런 기반 프레임워크 익히기 ( fit(), predict() ..)
- Model selection 모듈 소개 (교차검증, GridSerachCV..)
- 데이터 전처리
- 사이킷런으로 수행하는 타이타닉 생존자 예측
- 정리
더보기
- 평가
- 정확도
- 오차 행렬
- 정밀도와 재현율
- F1스코어
- ROC 곡선과 AUC
- 피마 인디언 당뇨병 예측
- 정리
- 분류
- 분류의 개요
- 결정 트리
- 앙상블 학습
- 랜덤 포레스트
- GBM(Gradient Boosting Machine)
- XGBoost(eXtra Gradient Boost)
- LightGBM
- 분류 실습 - 캐글 산탄데르 고객 만족 예측
- 분류 실습 - 캐글 신용카드 사기 검출
- 스태킹 앙상블
- 정리
- 회귀
- 회귀 소개
- 단순 선형 회귀를 통한 회귀 이해
- 비용 최소화하기 - 경사 하강법 (Gradient Descent) 소개
- 사이킷런 Linear Regression을 이용한 보스턴 주택 가격 예측
- 다항 회귀와 과(대)적합/과소적합 이해
- 규제 선형 모델 - 릿지, 라쏘, 엘라스틱 넷
- 로지스틱 회귀
- 회귀 트리
- 회귀 실습 - 자전거 대여 수요 예측
- 회귀 실습 - 캐글 주택 가격 : 고급 회귀 기법
- 정리
- 차원 축소
- 차원 축소의 개요
- PCA (Principal Component Anlysis)
- LDA (Linear Discriminant Anlysis)
- SVD (Singular Value Decomposition)
- NMF (Non-Negative Matrix Factorization)
- 정리
- 군집화
- K-평균 알고리즘 이해
- 군집 평가
- 평균 이동 (Mean shift)
- GMM(Gaussian Mixture Model)
- DBSCAN
- 군집화 실습 - 고객 세그먼테이션
- 정리
- 텍스트 분석
- 텍스트 분석 이해
- 텍스트 사전 준비 작업(텍스트 전처리) - 텍스트 정규화
- Bag of Words - BOW
- 텍스트 분류 실습 - 20 뉴스그룹 분류
- 감성 분석
- 토픽 모델링 - 20 뉴스그룹
- 문서 군집화 소개와 실습 (Opinion Review 데이터셋)
- 문서 유사도
- 한글 텍스트 처리 - 네이버 영화 평점 감성 분석
- 텍스트 분석 실습 - 캐글 mercari Price Suggestion Challenge
- 정리
- 추천 시스템
- 추천 시스템의 개요와 배경
- 콘텐츠 기반 필터링 추천 시스템
- 최근접 이웃 협업 필터링
- 잠재요인 협업 필터링
- 콘텐츠 기반 필터링 실습 - TMDV 5000 영화 데이터셋
- 아이템 기반 최근접 이웃 협업 필터링 실습
- 행렬 분해를 이용한 잠재요인 협업 필터링 실습
- 파이썬 추천 시스템 패키지 - Surprise
- 정리
1-4. 판다스(데이터핸들링) (39p~71p)
데이터 핸들링 - 판다스 1/2 (22.08.05)¶
In [1]:
import pandas as pd
In [5]:
titanic_df = pd.read_csv('titanic_train.csv')
In [6]:
titanic_df.head()
Out[6]:
PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 0 | 3 | Braund, Mr. Owen Harris | male | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | NaN | S |
1 | 2 | 1 | 1 | Cumings, Mrs. John Bradley (Florence Briggs Th... | female | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C |
2 | 3 | 1 | 3 | Heikkinen, Miss. Laina | female | 26.0 | 0 | 0 | STON/O2. 3101282 | 7.9250 | NaN | S |
3 | 4 | 1 | 1 | Futrelle, Mrs. Jacques Heath (Lily May Peel) | female | 35.0 | 1 | 0 | 113803 | 53.1000 | C123 | S |
4 | 5 | 0 | 3 | Allen, Mr. William Henry | male | 35.0 | 0 | 0 | 373450 | 8.0500 | NaN | S |
In [7]:
print('titanic 변수 type:',type(titanic_df))
titanic_df
titanic 변수 type: <class 'pandas.core.frame.DataFrame'>
Out[7]:
PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 0 | 3 | Braund, Mr. Owen Harris | male | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | NaN | S |
1 | 2 | 1 | 1 | Cumings, Mrs. John Bradley (Florence Briggs Th... | female | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C |
2 | 3 | 1 | 3 | Heikkinen, Miss. Laina | female | 26.0 | 0 | 0 | STON/O2. 3101282 | 7.9250 | NaN | S |
3 | 4 | 1 | 1 | Futrelle, Mrs. Jacques Heath (Lily May Peel) | female | 35.0 | 1 | 0 | 113803 | 53.1000 | C123 | S |
4 | 5 | 0 | 3 | Allen, Mr. William Henry | male | 35.0 | 0 | 0 | 373450 | 8.0500 | NaN | S |
... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
886 | 887 | 0 | 2 | Montvila, Rev. Juozas | male | 27.0 | 0 | 0 | 211536 | 13.0000 | NaN | S |
887 | 888 | 1 | 1 | Graham, Miss. Margaret Edith | female | 19.0 | 0 | 0 | 112053 | 30.0000 | B42 | S |
888 | 889 | 0 | 3 | Johnston, Miss. Catherine Helen "Carrie" | female | NaN | 1 | 2 | W./C. 6607 | 23.4500 | NaN | S |
889 | 890 | 1 | 1 | Behr, Mr. Karl Howell | male | 26.0 | 0 | 0 | 111369 | 30.0000 | C148 | C |
890 | 891 | 0 | 3 | Dooley, Mr. Patrick | male | 32.0 | 0 | 0 | 370376 | 7.7500 | NaN | Q |
891 rows × 12 columns
In [9]:
print('DataFrame 크기:',titanic_df.shape)
DataFrame 크기: (891, 12)
In [11]:
titanic_df.info()
#아래 dtypes는 데이터 타입과 그 데이터 타입을 가진 칼럼이 몇개인지 개수가 괄호안에 쓰여짐
<class 'pandas.core.frame.DataFrame'> RangeIndex: 891 entries, 0 to 890 Data columns (total 12 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 PassengerId 891 non-null int64 1 Survived 891 non-null int64 2 Pclass 891 non-null int64 3 Name 891 non-null object 4 Sex 891 non-null object 5 Age 714 non-null float64 6 SibSp 891 non-null int64 7 Parch 891 non-null int64 8 Ticket 891 non-null object 9 Fare 891 non-null float64 10 Cabin 204 non-null object 11 Embarked 889 non-null object dtypes: float64(2), int64(5), object(5) memory usage: 83.7+ KB
In [16]:
titanic_df.describe()
# 칼럼별 숫자형 데이터 값의 n-percentile 분포도, 평균값, 최댓값, 최솟값을 나타냄
# 오직 숫자형 칼럼의 분포도만 조사 (object는 자동 제외)
Out[16]:
PassengerId | Survived | Pclass | Age | SibSp | Parch | Fare | |
---|---|---|---|---|---|---|---|
count | 891.000000 | 891.000000 | 891.000000 | 714.000000 | 891.000000 | 891.000000 | 891.000000 |
mean | 446.000000 | 0.383838 | 2.308642 | 29.699118 | 0.523008 | 0.381594 | 32.204208 |
std | 257.353842 | 0.486592 | 0.836071 | 14.526497 | 1.102743 | 0.806057 | 49.693429 |
min | 1.000000 | 0.000000 | 1.000000 | 0.420000 | 0.000000 | 0.000000 | 0.000000 |
25% | 223.500000 | 0.000000 | 2.000000 | 20.125000 | 0.000000 | 0.000000 | 7.910400 |
50% | 446.000000 | 0.000000 | 3.000000 | 28.000000 | 0.000000 | 0.000000 | 14.454200 |
75% | 668.500000 | 1.000000 | 3.000000 | 38.000000 | 1.000000 | 0.000000 | 31.000000 |
max | 891.000000 | 1.000000 | 3.000000 | 80.000000 | 8.000000 | 6.000000 | 512.329200 |
- count는 Not Null인 데이터 건수
- 또한 해당 숫자 컬럼이 숫자형 카테고리 칼럼인지 판단 가능(범주형을 코드화한 칼럼)
- PassengerId는 식별 칼럼이라 분석을 위한 의미있는 속성이 아님
- Survived는 min이 0이고 max가 1이니 0과 1로 이루어진 숫자형 카테고리 칼럼
- Pclass 칼럼 값의 분포를 살펴보자.
- value_counts() 메소드로 해당 칼럼값의 유형과(dtype) 건수 확인 : 데이터 분포도 확인에 유용
- value_counts()메소드는 시리즈에만 사용가능 (df에는 X)
In [18]:
value_counts = titanic_df['Pclass'].value_counts()
print(value_counts)
3 491 1 216 2 184 Name: Pclass, dtype: int64
- df 속 칼럼명 입력시 해당 칼럼에 해당하는 시리즈 객체 반환
In [22]:
titanic_pclass = titanic_df['Pclass']
print(type(titanic_pclass))
<class 'pandas.core.series.Series'>
- seires는 '인덱스'와 '단 하나의 컬럼'으로 구성
- series 객체가 어떤 값으로 구성되어있는지 확인해보자
In [24]:
titanic_pclass.head()
Out[24]:
0 3 1 1 2 3 3 1 4 3 Name: Pclass, dtype: int64
- 인덱스는 단순 순차 값과 같은 의미없는 식별자만 할당하는 것이 아니라, 고유성이 보장된다면 의미 있는 데이터값 할당도 가능하다.
- vaue_counts()는 칼럼 값별 데이터 건수를 반환하므로, 고유 칼럼 값을 식별자로 사용 가능
- 인덱스는 문자열도 가능하다.
- 단, 모든 인덱스는 고유성이 보장되어야함
DataFrame과 list, dictionary, 넘파이 ndarray 상호변환¶
- dataframe은 다양한 데이터로부터 생성될 수도있고, 다양한 데이터로 변환될 수도 있다.
- 특히 사이킷런의 많은 API는 DataFrame을 인자로 입력 받을 수 있지만, 기본적으로 넘파이 ndarray를 입력 인자로 사용한다. 그래서 data frame과 ndarray 상호 간의 변환이 빈번하게 발생함
넘파이 ndarry, list, dictionary를 data frame으로 변환하기¶
- dataframe은 list, ndarray와 다르게 '컬럼명'을 갖고있음 - 그래서 데이터핸들링이 편리
- 그래서 dataframe으로 변환시, 컬럼명을 지정해주어야한다.(안할시 자동 할당)
- 당연히 dataframe이 2차원이기 때문에 2차원 이하의 데이터들만 data frame으로 변환가능
- ndarray를 data frame으로 변환시 ndarray는 1차원이니까 칼럼 1개만 필요, 'col1'로 지정해서 변환해보자.
In [27]:
import numpy as np
col_name1 = ['col1']
list1 = [1,2,3] # list 생성
array1 = np.array(list1) # ndarray 생성
df_list1 = pd.DataFrame( list1, columns=col_name1) # list 와 칼럼명으로 dataframe 생성
print('1차원 리스트로 만든 DataFrame:\n',df_list1)
df_array1 = pd.DataFrame(array1,columns=col_name1) # ndarray와 칼럼명으로 dataframe 생성
print('1차원 ndarray로 만든 dataframe:\n',df_array1)
1차원 리스트로 만든 DataFrame: col1 0 1 1 2 2 3 1차원 ndarray로 만든 dataframe: col1 0 1 1 2 2 3
- 이번에는 2차원 형태의 데이터로 data frame을 생성해보자.
- 2행3열 리스트와 ndarray를 기반으로 data frame 생성
- 따라서 3개의 칼럼명 필요
In [31]:
col_name2 = ['col1','col2','col3']
list2 = [[1,2,3],[11,12,13]] # 2차원 형태의 리스트
array2 = np.array(list2) # 2차원 형태의 ndarray
print('array2 shape:',array2.shape)
df_list2 = pd.DataFrame( list2, columns = col_name2)
print('2차원 리스트로 만든 dataframe:\n',df_list2)
df_array2 = pd.DataFrame(array2, columns = col_name2)
print('2차원 ndarray로 만든 DataFrame:\n', df_array2)
array2 shape: (2, 3) 2차원 리스트로 만든 dataframe: col1 col2 col3 0 1 2 3 1 11 12 13 2차원 ndarray로 만든 DataFrame: col1 col2 col3 0 1 2 3 1 11 12 13
In [32]:
# 딕셔너리 -> data frame
dict = {'col1':[1,11], 'col2':[2,22], 'col3':[3,33]}
df_dict = pd.DataFrame(dict) #딕셔너리는 col_name 지정할필요 X 딕셔너리의 key가 칼럼명
print('딕셔너리로 만든 DataFrame:\n', df_dict)
딕셔너리로 만든 DataFrame: col1 col2 col3 0 1 2 3 1 11 22 33
반대로 dataframe을 ndarray,list,dictionary로 변환하기¶
- 많은 머신러닝 패키지는 기본 데이터형으로 넘파이 ndarray를 사용
- 따라서 데이터핸들링시 dataframe을 이용하더라도, 머신러닝 패키지의 입력 인자등에 적용하기 위해 다시 넘파이 ndarray로 변환하는 경우가 많음
- datrame -> ndarray 변환시 data frame객체의 values를 이용
In [34]:
# dataframe을 ndarray로 변환
array3 = df_dict.values #바로 앞에서 만든 딕셔너리에 .values를 입력 -> ndarray가 됨
print('df_dict.values 타입:',type(array3),'df_dict.values shape:',array3.shape)
print(array3)
df_dict.values 타입: <class 'numpy.ndarray'> df_dict.values shape: (2, 3) [[ 1 2 3] [11 22 33]]
- dataframe -> ndarray : array = dict.values
In [36]:
# dataframe을 list,dictionary로 변환
#dataframe -> list
list3 = df_dict.values.tolist()
print('df_dict.values.tolist() 타입:', type(list3))
print(list3)
df_dict.values.tolist() 타입: <class 'list'> [[1, 2, 3], [11, 22, 33]]
- dataframe -> list : df.values.tolist()
In [37]:
# dataframe -> dictionary
dict3 = df_dict.to_dict('list')
print('\n df_dict.to_dict() 타입:',type(dict3))
print(dict3)
df_dict.to_dict() 타입: <class 'dict'> {'col1': [1, 11], 'col2': [2, 22], 'col3': [3, 33]}
- dataframe -> dictionary : df.to.list() , ()안에 'list'입력시 딕셔너리값이 리스트형으로 반환됨(여전히 class는 딕셔너리)
DataFrame의 칼럼 데이터 셋 생성과 수정¶
In [56]:
titanic_df['Age_0']=0 #단순히 []괄호 안에 써서 추가하면됨
titanic_df.head(3)
Out[56]:
PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | Family_N0 | Age_0 | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 0 | 3 | Braund, Mr. Owen Harris | male | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | NaN | S | 2 | 0 |
1 | 2 | 1 | 1 | Cumings, Mrs. John Bradley (Florence Briggs Th... | female | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C | 2 | 0 |
2 | 3 | 1 | 3 | Heikkinen, Miss. Laina | female | 26.0 | 0 | 0 | STON/O2. 3101282 | 7.9250 | NaN | S | 1 | 0 |
In [57]:
titanic_df['Age_by_10'] = titanic_df['Age']*10 # 수정 과정도 단순함
titanic_df['Family_No'] = titanic_df['SibSp'] + titanic_df['Parch'] + 1 #컬럼 끼리 연산해서 추가 가능
titanic_df.head(3)
Out[57]:
PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | Family_N0 | Age_0 | Age_by_10 | Family_No | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 0 | 3 | Braund, Mr. Owen Harris | male | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | NaN | S | 2 | 0 | 220.0 | 2 |
1 | 2 | 1 | 1 | Cumings, Mrs. John Bradley (Florence Briggs Th... | female | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C | 2 | 0 | 380.0 | 2 |
2 | 3 | 1 | 3 | Heikkinen, Miss. Laina | female | 26.0 | 0 | 0 | STON/O2. 3101282 | 7.9250 | NaN | S | 1 | 0 | 260.0 | 1 |
In [58]:
titanic_df['Age_by_10'] = titanic_df['Age_by_10'] + 100
titanic_df.head(3)
Out[58]:
PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | Family_N0 | Age_0 | Age_by_10 | Family_No | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 0 | 3 | Braund, Mr. Owen Harris | male | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | NaN | S | 2 | 0 | 320.0 | 2 |
1 | 2 | 1 | 1 | Cumings, Mrs. John Bradley (Florence Briggs Th... | female | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C | 2 | 0 | 480.0 | 2 |
2 | 3 | 1 | 3 | Heikkinen, Miss. Laina | female | 26.0 | 0 | 0 | STON/O2. 3101282 | 7.9250 | NaN | S | 1 | 0 | 360.0 | 1 |
dataframe 데이터 삭제¶
- DataFrame.drop(labels=None, axis=0, index=None, columns=None, level=None, inplace=False, errors: 'raise')
- 주의해야할 점은 axis 0은 로우 방향축, axis1은 칼럼 방향 축이라는 것
- 따라서 axis=1일 때 칼럼을 드롭
- axis=0일 때 로우 드롭, data frame에서 특정 로우를 가리키는 것은 '인덱스'이다. 따라서 axis=0으로 지정시, dataframe은 자동으로 drop 괄호안의 labels에 오는 값을 None이 아닌 인덱스로 간주한다.
- axis=0으로 로우 레벨로 삭제하는 경우에는 이상치 데이터를 삭제하는 경우
In [44]:
# 앞서 생성한 Age_0 칼럼 삭제하기
titanic_drop_df = titanic_df.drop('Age_0',axis=1)
titanic_drop_df.head(3)
Out[44]:
PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | Age_by_10 | Family_N0 | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 0 | 3 | Braund, Mr. Owen Harris | male | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | NaN | S | 320.0 | 2 |
1 | 2 | 1 | 1 | Cumings, Mrs. John Bradley (Florence Briggs Th... | female | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C | 480.0 | 2 |
2 | 3 | 1 | 3 | Heikkinen, Miss. Laina | female | 26.0 | 0 | 0 | STON/O2. 3101282 | 7.9250 | NaN | S | 360.0 | 1 |
In [47]:
titanic_df.head(3)
Out[47]:
PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | Age_0 | Age_by_10 | Family_N0 | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 0 | 3 | Braund, Mr. Owen Harris | male | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | NaN | S | 0 | 320.0 | 2 |
1 | 2 | 1 | 1 | Cumings, Mrs. John Bradley (Florence Briggs Th... | female | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C | 0 | 480.0 | 2 |
2 | 3 | 1 | 3 | Heikkinen, Miss. Laina | female | 26.0 | 0 | 0 | STON/O2. 3101282 | 7.9250 | NaN | S | 0 | 360.0 | 1 |
In [59]:
drop_result = titanic_df.drop(['Age_0','Age_by_10','Family_No'],axis=1,inplace=True) #원본에서 삭제
print('inpalce=True로 drop 후 반환된 값:', drop_result)
titanic_df.head(3)
inpalce=True로 drop 후 반환된 값: None
Out[59]:
PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | Family_N0 | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | 0 | 3 | Braund, Mr. Owen Harris | male | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | NaN | S | 2 |
1 | 2 | 1 | 1 | Cumings, Mrs. John Bradley (Florence Briggs Th... | female | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C | 2 |
2 | 3 | 1 | 3 | Heikkinen, Miss. Laina | female | 26.0 | 0 | 0 | STON/O2. 3101282 | 7.9250 | NaN | S | 1 |
In [61]:
# 맨 앞 3개 '데이터' 삭제하기 (axis=0)
pd.set_option('display.width',1000)
pd.set_option('display.max_colwidth',15)
print('#### before axis 0 drop ####')
print(titanic_df.head(3))
titanic_df.drop([0,1,2],axis=0,inplace=True)
print('#### after axis 0 drop ####')
print(titanic_df.head(3))
#### before axis 0 drop #### PassengerId Survived Pclass Name Sex Age SibSp Parch Ticket Fare Cabin Embarked Family_N0 0 1 0 3 Braund, Mr.... male 22.0 1 0 A/5 21171 7.2500 NaN S 2 1 2 1 1 Cumings, Mr... female 38.0 1 0 PC 17599 71.2833 C85 C 2 2 3 1 3 Heikkinen, ... female 26.0 0 0 STON/O2. 31... 7.9250 NaN S 1 #### after axis 0 drop #### PassengerId Survived Pclass Name Sex Age SibSp Parch Ticket Fare Cabin Embarked Family_N0 3 4 1 1 Futrelle, M... female 35.0 1 0 113803 53.1000 C123 S 2 4 5 0 3 Allen, Mr. ... male 35.0 0 0 373450 8.0500 NaN S 1 5 6 0 3 Moran, Mr. ... male NaN 0 0 330877 8.4583 NaN Q 1
Index 객체¶
- index 객체는 data frame, series의 레코드를 고유하게 식별하는 객체
- df.index, Series.index 속성을 통해 index만 추출 가능
In [62]:
# drop으로 일부 데이터가 삭제되었으므로, 원본 파일 다시 로딩
titanic_df = pd.read_csv('titanic_train.csv')
indexes = titanic_df.index
print('Index 객체 array값:\n', indexes.values) # index 객체를 실제 값 array로 변환
Index 객체 array값: [ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 479 480 481 482 483 484 485 486 487 488 489 490 491 492 493 494 495 496 497 498 499 500 501 502 503 504 505 506 507 508 509 510 511 512 513 514 515 516 517 518 519 520 521 522 523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545 546 547 548 549 550 551 552 553 554 555 556 557 558 559 560 561 562 563 564 565 566 567 568 569 570 571 572 573 574 575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591 592 593 594 595 596 597 598 599 600 601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620 621 622 623 624 625 626 627 628 629 630 631 632 633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654 655 656 657 658 659 660 661 662 663 664 665 666 667 668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699 700 701 702 703 704 705 706 707 708 709 710 711 712 713 714 715 716 717 718 719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750 751 752 753 754 755 756 757 758 759 760 761 762 763 764 765 766 767 768 769 770 771 772 773 774 775 776 777 778 779 780 781 782 783 784 785 786 787 788 789 790 791 792 793 794 795 796 797 798 799 800 801 802 803 804 805 806 807 808 809 810 811 812 813 814 815 816 817 818 819 820 821 822 823 824 825 826 827 828 829 830 831 832 833 834 835 836 837 838 839 840 841 842 843 844 845 846 847 848 849 850 851 852 853 854 855 856 857 858 859 860 861 862 863 864 865 866 867 868 869 870 871 872 873 874 875 876 877 878 879 880 881 882 883 884 885 886 887 888 889 890]
- 인덱스가 890개니까 총 890개의 데이터
In [64]:
# 인덱스 단일 값 반환 및 슬라이싱
print(type(indexes.values)) #.values는 dataframe -> ndarray
print(indexes.values.shape)
print(indexes[:5].values)
print(indexes.values[:5])
print(indexes[6])
<class 'numpy.ndarray'> (891,) [0 1 2 3 4] [0 1 2 3 4] 6
reset_index() 메소드로 인덱스를 연속 숫자형으로 할당, 'index'라는 칼럼명으로 새로운 칼럼으로 추가
- reset_index()는 인덱스가 연속된 int 숫자형 데이터가 아닐경우, 다시 int로 만들 때 주로 사용
- ex. Pclass 칼럼의 value_counts()를 수행하면 'Pclass' 고유값이 식별자 인덱스 역할을 했었다. 하지만 이런 경우 그것보다 연속숫자형 인덱스를 고유 식별자로 설정하는게 더 낫다.
- reset_index()는 인덱스가 연속된 int 숫자형 데이터가 아닐경우, 다시 int로 만들 때 주로 사용
series에 value_counts()수행시 data frame이 반환됨에 주의(기존 인덱스가 칼럼으로 추가되어 칼럼이 2개가 되기 때문)
In [66]:
titanic_reset_df = titanic_df.reset_index(inplace=False)
titanic_reset_df.head(3)
Out[66]:
level_0 | index | PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 0 | 0 | 1 | 0 | 3 | Braund, Mr.... | male | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | NaN | S |
1 | 1 | 1 | 2 | 1 | 1 | Cumings, Mr... | female | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C |
2 | 2 | 2 | 3 | 1 | 3 | Heikkinen, ... | female | 26.0 | 0 | 0 | STON/O2. 31... | 7.9250 | NaN | S |
In [68]:
print('### before reset_index ###')
value_counts = titanic_df['Pclass'].value_counts()
print(value_counts)
print('value_counts 객체 변수 타입 : ', type(value_counts))
new_value_counts = value_counts.reset_index(inplace=False)
print('### After reset_index ###')
print(new_value_counts)
print('new_value_counts 객체 변수 타입:',type(new_value_counts))
### before reset_index ### 3 491 1 216 2 184 Name: Pclass, dtype: int64 value_counts 객체 변수 타입 : <class 'pandas.core.series.Series'> ### After reset_index ### index Pclass 0 3 491 1 1 216 2 2 184 new_value_counts 객체 변수 타입: <class 'pandas.core.frame.DataFrame'>
- series에 reset_index 적용
- 새로운 숫자형 인덱스가 맨 왼쪽에 만들어짐
- 기존인덱스는 'index'칼럼명으로 추가됨 (->data frame으로 자동변환)
- reset_index(drop=True)로 설정시 기존 인덱스는 새로운 칼럼으로 추가되지 않고 삭제, 따라서 새로운 칼럼이 추가되지 않으므로 그대로 series로 유지됨
데이터 셀렉션 및 필터링¶
- 판다스의 데이터 셀렉션 및 필터링은 넘파이와 유사한 부분도 있지만, 다른 부분도 있기에 혼동하기 쉬움
- 데이터 셀렉션기능이 판다스 내에서도 series와 data frame끼리도 상이해서 주의해야함
- 넘파이
- '[]' 연산자 내 단일 값 추출, 슬라이싱, 팬시 인덱싱, 불리언 인덱싱
- 판다스
- ix[], iloc[], loc[] 연산자로 동일한 작업 수행
Dataframe의 [ ]연산자¶
- df 바로 뒤에 있는 [] 에 들어갈 수 있는 것은
- 칼럼 명 문자 (또는 칼럼 명의 리스트 객체)
- 인덱스로 반환 가능한 표현식
- 즉, df 뒤에있는 []는 칼럼만 지정할 수 있는 '칼럼 지정 연산자'로 일단 이해하자
In [70]:
print('단일 칼럼 데이터 추출:\n', titanic_df['Pclass'].head(3))
print('\n여러 칼럼의 데이터 추출:\n', titanic_df[['Survived','Pclass']].head(3))
# print('[ ] 안에 숫자 index는 key error 오류 발생:\n',titanic_df[0])
단일 칼럼 데이터 추출: 0 3 1 1 2 3 Name: Pclass, dtype: int64 여러 칼럼의 데이터 추출: Survived Pclass 0 0 3 1 1 1 2 1 3
- 단, 인덱스 형태로 변환 가능한 표현식은 [] 내에 입력 가능
In [71]:
titanic_df[0:2]
Out[71]:
index | PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 0 | 1 | 0 | 3 | Braund, Mr.... | male | 22.0 | 1 | 0 | A/5 21171 | 7.2500 | NaN | S |
1 | 1 | 2 | 1 | 1 | Cumings, Mr... | female | 38.0 | 1 | 0 | PC 17599 | 71.2833 | C85 | C |
In [72]:
# 불리언 인덱싱도 가능
titanic_df[ titanic_df['Pclass'] ==3 ].head(3)
Out[72]:
index | PassengerId | Survived | Pclass | Name | Sex | Age | SibSp | Parch | Ticket | Fare | Cabin | Embarked | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 0 | 1 | 0 | 3 | Braund, Mr.... | male | 22.0 | 1 | 0 | A/5 21171 | 7.250 | NaN | S |
2 | 2 | 3 | 1 | 3 | Heikkinen, ... | female | 26.0 | 0 | 0 | STON/O2. 31... | 7.925 | NaN | S |
4 | 4 | 5 | 0 | 3 | Allen, Mr. ... | male | 35.0 | 0 | 0 | 373450 | 8.050 | NaN | S |
- [ ] 내의 불리언 인덱싱 기능은 원하는 데이터를 편하게 추출하게 해주므로 자주 사용됨
- 혼동방지를 위해 df [ ] 연산자 정리
- df 바로 뒤 [ ] 연산자는 넘파이의 [ ] 나 series의 [ ]와 다름
- df 바로 뒤 [ ] 내 입력 값은 칼럼명(혹은 칼럼 리스트)을 지정해 칼럼 지정 연산에 활용하거나, 불리언 인덱스 용도로만 사용해야함
- df[0:2]와 같은 슬라이싱 연산으로 데이터를 추출하는 방법은 사용하지 않는게 좋음
dataframe ix[ ] 연산자 -> loc[] , iloc[]¶
- ndarray의 [ ] 연산자와 유사한 기능
- ix [ 0, 'Pclass' ] 와 같이 1) 행 위치 지정으로 인덱스값 0을, 2) 열 위치 지정으로 칼럼명인 'Pclass'를 입력해 원하는 위치의 데이터 추출이 가능하다.
- ix[ ] 의 행에 해당하는 위치지정은 dataframe의 인덱스 값을 입력해야하며, 열 위치 지정은 칼럼 명을 입력해야하지만, 칼럼의 위치값 지정도 가능하다.
- 즉, 위의 ix대신 ix [0,2]도 가능, 2는 세번째 칼럼을 의미
- 하지만 결론적으로 이러한 방식이 헷갈려서 loc과 iloc으로 구분하게 되었다고 한다.
- loc[] : 칼럼 명칭 기반 인덱싱 연산자
- iloc[] : 칼럼 위치기반 인덱싱 연산자
- data_df를 reset_index()를 수행해 이번에는 기존 인덱스를 칼럼화하고, 0부터 시작하는 새로운 인덱스를 추가해보자.
- 그리고 이 새로운 인덱스를 다시 1부터 시작하는 인덱스로 바꿔보자
In [92]:
data = {'Name' : ['Chulmin', 'Eunkyung', 'Jinwoong', 'Soobeom'],
'Year' : [2011, 2016, 2015, 20151],
'Gender' : ['Male','Female','Male','Male']
}
data_df = pd.DataFrame(data,index=['one','two','three','four'])
data_df
Out[92]:
Name | Year | Gender | |
---|---|---|---|
one | Chulmin | 2011 | Male |
two | Eunkyung | 2016 | Female |
three | Jinwoong | 2015 | Male |
four | Soobeom | 20151 | Male |
In [93]:
#위치기반 iloc[ ] 연산자
data_df.iloc[0,0]
Out[93]:
'Chulmin'
In [94]:
# iloc[ ] 에 명칭 입력시 에러
# data_df.iloc[0,'Name']
- iloc[ ] 은 슬라이싱과 팬시 인덱싱은 제공하나, 명확한 위치 기반 인덱싱이 사용되어야 하는 제약으로 인해 불리언 인덱싱은 제공하지 않는다.
In [95]:
#명칭 기반 loc[ ] 연산자
data_df.loc['one','Name']
Out[95]:
'Chulmin'
- 인덱스가 숫자형일 수 있기 때문에 명칭 기반이라고해서 무조건 문자열을 입력한다고 생각해서는 안된다.
In [98]:
#새로운 인덱스 생성, 기존의 인덱스를 old index로 지정
data_df_reset = data_df.reset_index()
data_df_reset = data_df_reset.rename(columns={'index':'old index'})
#인덱스값에 1을 더해서 0이 아닌 1부터 시작하는 새로운 인덱스 값 생성
data_df_reset.index = data_df_reset.index+1
data_df_reset
Out[98]:
old index | Name | Year | Gender | |
---|---|---|---|---|
1 | one | Chulmin | 2011 | Male |
2 | two | Eunkyung | 2016 | Female |
3 | three | Jinwoong | 2015 | Male |
4 | four | Soobeom | 20151 | Male |
In [99]:
data_df_reset.loc[1,'Name']
Out[99]:
'Chulmin'
In [100]:
#data_de_reset.loc[0,'Name'] 입력시 앞서 인덱스를 1부터 시작하게 바꾸었으므로 오류 출력
- loc[ ]에 슬라이싱 기호 ':' 적용시 유의할 점
- 일반적인 슬라이싱은 시작 값~종료값 -1 그 앞까지 이지만
- loc[]에서의 슬라이싱은 종료값까지 포함한다는 점
- 그렇게 된 이유는, 명칭 기반 인덱싱의 특성 때문 - 명칭은 숫자형이 아닐수도 있어서 -1을 할 수가 없다!
In [101]:
print('위치 기반 iloc slicing\n', data_df.iloc[0:1,0],'\n')
print('명칭 기반 loc slicing\n', data_df.loc['one':'two','Name'])
위치 기반 iloc slicing one Chulmin Name: Name, dtype: object 명칭 기반 loc slicing one Chulmin two Eunkyung Name: Name, dtype: object
- 위와 같이 위치 기반 iloc으로 슬라이싱했을 때에는 1까지 포함하지 않고 0행만 출력
- 하지만 명칭 기반 loc으로 슬라이싱했을 때에는 'one:'two' 끝 값까지 포함해서 행2개 출력
In [103]:
print(data_df_reset.loc[1:2,'Name']) #명칭기반 loc 슬라이싱은 끝값까지 반영
1 Chulmin 2 Eunkyung Name: Name, dtype: object
- loc과 iloc 정리
- 인덱스나 칼럼명으로 데이터에 접근하는건 명칭 기반 인덱싱 loc()
- 0부터 시작하는 행, 열의 위치 좌표에만 의존하는건 위치 기반 인덱싱 iloc()
- 위치 기반 인덱싱 iloc()은 항상 행과 열의 위치값으로 정수형을 지정해 원하는 데이터 반환
- 명칭 기반 인덱싱 loc()은 행 위치에 dataframe 인덱스가 오고, 열 위치에 칼럼명이 온다.
- 명칭 기반 인덱싱 loc()에서 슬라이싱은 종료점을 포함한다.
- 판다스는 행과 열로 이루어진 2차원 데이터를 효율적으로 가공/처리할 수 있는 기능 제공
- 앞서 배운 넘파이는 저수준 API가 대부분이라, 넘파이의 데이터 핸들링은 불편
- 판다스는 파이썬의 리스트,넘파이 등의 내부 데이터 뿐만 아니라 csv등의 파일을 쉽게 data frame으로 변경하여 데이터 가공 및 분석을 편하게 수행할 수 있게 해줌
- 판다스의 핵심 주고는 data frame, dataframe은 여러개의 행과 열로 이루어진 2차원 데이터를 담는 데이터 구조체
- index는 개별 데이터를 고유하게 식별하는 key 값
- series 와 data frame은 모두 index를 키값으로 갖고 있음
- series와 data frame의 큰 차이는 series는 칼럼이 하나, dataframe은 칼럼이 여러개라는 것
- data frame은 여러개의 series로 이루어진 것
- 판다스는 csv, tab과 같은 분리문자로 칼럼을 분리한 파일을 손쉽게 dataframe으로 로딩할 수 있게 해줌
- read_table()과 read_csv()의 큰 차이는 필드 구분 문자가 콤마(,)인지, 탭인지('\t')의 차이. read_table()의 디폴트 구분 문자는 탭이다.
- read_csv()는 구분 문자가 csv가 아니더라도, 어떤 필드 구분 문자 기반의 파일 포맷도 data frame으로 변환이 가능하다. read_csv()의 인자인 sep에 해당 구분 문자만 입력하면된다.(sep생략시 자동으로 콤마(sep=',')로 할당
- read_fwf는 fixed width, 즉 고정 길이 기반 칼럼 포맷을 data frame으로 로딩하기 위한 API이다.
- 모든 data frame 내의 데이터는 생성되는 순간 고유의 index값을 가지게되기에, 필요없는경우 index=false 해주어야함
- 데이터의 분포도를 아는 것은 후에 머신러닝 알고리즘 성능 향상에서 중요한 요소이다. 예를 들어 회귀에서 결정 값이 정규분포가 아닐경우, 또는 이상치가 많을 경우 예측 성능이 저하됨
- 개략적인 수준의 분포도를 describe() 메소드로 확인
'데이터 분석 > 파이썬 머신러닝 완벽가이드' 카테고리의 다른 글
[6] 파이썬 머신러닝 완벽 가이드 - 3.평가(정확도, 오차행렬, 정밀도, ROC AUC..) (0) | 2022.08.13 |
---|---|
[5] 파이썬 머신러닝 완벽가이드 - 사이킷런 데이터 전처리, 타이타닉 예제, 정리 (0) | 2022.08.10 |
[4] 파이썬 머신러닝 완벽가이드 - 판다스(데이터 핸들링) 마무리, 사이킷런 모듈 연습 마무리(Stratified K fold, GridSearchCV) (0) | 2022.08.06 |
[2] 파이썬 머신러닝 완벽가이드 - 넘파이 마무리, 사이킷런 fit(), predict(), 교차검증 (0) | 2022.07.26 |
[1] 파이썬 머신러닝 완벽가이드 - 넘파이(~팬시인덱싱), 사이킷런(~붓꽃 품종 예측) (0) | 2022.07.25 |
Comments