数据分析之路—python基础学习
- 2019 年 10 月 8 日
- 筆記
大数据分析、底层架构、设计思路,本文作者(大数据分析师——廉小宝)带你探路。 —— 23号老板
原创:a廉小宝
Python安装与使用
Python安装:直接安装Anaconda环境可以方便很多,Anaconda内置了很多Python包,使用起来很方便,另外推荐使用Python3版本,Python2目前已经停更。
推荐工具:一些小的实验可以在Jupyter Notebook上进行,工程项目可以使用Pycharm,方便调试 。 安装链接
python数据类型
1.基本数据类型
计算机顾名思义就是可以做数学计算的机器,因此,计算机程序理所当然地可以处理各种数值。但是,计算机能处理的远不止数值,还可以处理文本、图形、音频、视频、网页等各种各样的数据,不同的数据,需要定义不同的数据类型。在Python中,能够直接处理的数据类型有以下几种:
整数
Python可以处理任意大小的整数,当然包括负整数,在程序中的表示方法和数学上的写法一模一样,例如:1,100,-8080,0,等等。
计算机由于使用二进制,所以,有时候用十六进制表示整数比较方便,十六进制用0x前缀和0-9,a-f表示,例如:0xff00,0xa5b4c3d2,等等。
浮点数
浮点数也就是小数,之所以称为浮点数,是因为按照科学记数法表示时,一个浮点数的小数点位置是可变的,比如,1.23×109和12.3×108是完全相等的。浮点数可以用数学写法,如1.23,3.14,-9.01,等等。但是对于很大或很小的浮点数,就必须用科学计数法表示,把10用e替代,1.23×109就是1.23e9,或者12.3e8,0.000012可以写成1.2e-5,等等。
字符串
字符串是以单引号’或双引号"括起来的任意文本,比如’abc’,“xyz"等等。请注意,’'或”“本身只是一种表示方式,不是字符串的一部分,因此,字符串’abc’只有a,b,c这3个字符。如果’本身也是一个字符,那就可以用”"括起来,比如"I’m OK"包含的字符是I,’,m,空格,O,K这6个字符。
2.数据存储结构
list
Python内置的一种数据类型是列表:list。list是一种有序的集合,可以随时添加和删除其中的元素。
比如,一列数字,就可以用一个list表示:
a = [1,2,3,4,5] print(a)
用索引来访问list中每一个位置的元素,记得索引是从0开始的:
print(a[0]) print(a[1:3])
记住list的索引范围是0:len(list)。
Tuple
另一种有序列表叫元组:tuple。tuple和list非常类似,但是tuple一旦初始化就不能修改。
a = (1, 2, 3, 4, 5) print(a)
dict
Python内置了字典:dict的支持,dict全称dictionary,在其他语言中也称为map,使用键-值(key-value)存储,具有极快的查找速度。
names = ['Michael', 'Bob', 'Tracy'] scores = [95, 75, 85] a = dict(zip(names, scores))
dict也可以通过直接命名的方式定义,更为直接:
d = {'Michael': 95, 'Bob': 75, 'Tracy': 85} d['Bob']
通过检索dict的key可以直接访问其对应的value。
dict可以存储不同类型的数据,这是和前面的list和tuple完全不同的地方。
set
set和dict类似,也是一组key的集合,但不存储value。由于key不能重复,所以,在set中,没有重复的key。
重复元素在set中自动被过滤:
s = set([1, 1, 2, 2, 3, 3]) s
数据分析基础之Pandas
Pandas概述
Pandas 是一个 Python 的包,提供快速、灵活和富有表现力的数据结构,旨在使“关系”或“标记”数据的使用既简单又直观。它旨在成为在Python中进行实际,真实世界数据分析的基础高级构建模块。此外,它还有更宏远的目标,即成为超过任何语言的最强大,最灵活的开源数据分析/操作工具。它已朝着这个目标迈进。
pandas非常适合许多不同类型的数据:
- 具有异构类型列的表格数据,如SQL表或Excel电子表格。
- 有序和无序(不一定是固定频率)时间序列数据。
- 具有行和列标签的任意矩阵数据(均匀类型或异构)。
- 任何其他形式的观察/统计数据集。实际上不需要将数据标记为放置在Pandas数据结构中。
Pandas 的两个主要数据结构,Series(1维)和DataFrame(2维),处理金融,统计,社会科学和许多工程领域中的绝大多数典型用例。对于R用户,DataFrame提供R的data.frame提供的所有内容以及更多内容。Pandas建立在NumPy之上,旨在与许多其他第三方库完美地集成在科学计算环境中。
以下是Pandas做够胜任的一些事情:
- 在浮点和非浮点数据中轻松处理缺失数据(表示为NaN)。
- 大小可变性:可以从DataFrame和更高维度的对象中插入和删除。
- 自动和显式数据对齐:对象可以明确地与一组标签对齐,或者用户可以简单地忽略标签,让Series,DataFrame等在计算中自动对齐数据
- 强大,灵活的组(group by)功能,可对数据集执行拆分应用组合操作,用于聚合和转换数据。
- 轻松将其他Python和NumPy数据结构中的不规则,不同索引数据转换为DataFrame对象。
- 基于智能标签的切片,花式索引和子集大数据集。
- 直观合并和加入数据集。
- 灵活的重塑和数据集的旋转。
- 轴的分层标记(每个刻度可能有多个标签)。
- 强大的IO工具,用于从平面文件(CSV和分隔)、Excel文件、数据库以及能从超快的HDF5格式中保存或加载数据。
- 特定时间序列功能:日期范围生成和频率转换、移动窗口统计、移动窗口线性回归、日期转换和滞后等。
其中许多技术都是为了解决使用其他语言/科研环境时经常遇到的缺点。对于数据科学家来说,处理数据通常分为多个阶段:整理和清理数据,分析/建模数据,然后将分析结果组织成适合绘图或表格显示的形式。Pandas 是完成所有这些任务的理想工具。
Pandas操作
导入相关包
import pandas as pd import numpy as np
对象创建
通过传入一些值的列表来创建一个Series,Pandas会自动创建一个默认的整数索引:
s = pd.Series([1, 3, 5, np.nan, 6, 8]) print(s)
0 1.0 1 3.0 2 5.0 3 NaN 4 6.0 5 8.0 dtype: float64
通过传递带有日期时间索引和带标签列的NumPy数组来创建DataFrame:
dates = pd.date_range('20190725', periods=6)
dates
DatetimeIndex(['2019-07-25', '2019-07-26', '2019-07-27', '2019-07-28', '2019-07-29', '2019-07-30'], dtype='datetime64[ns]', freq='D')
df = pd.DataFrame(np.random.rand(6,4),index=dates, columns=list('ABCD'))
df
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
0.030035 |
0.364846 |
0.385114 |
0.892197 |
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
0.512688 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
0.734755 |
2019-07-28 |
0.641315 |
0.307451 |
0.582599 |
0.084260 |
2019-07-29 |
0.070572 |
0.937610 |
0.515065 |
0.961442 |
2019-07-30 |
0.906944 |
0.143410 |
0.875313 |
0.430607 |
通过传递可以转化为类似Series的dict对象来创建DataFrame:
df2 = pd.DataFrame({ 'A': 1., 'B': pd.Timestamp('20190722'), 'C': pd.Series(1, index=list(range(4)), dtype='float32'), 'D': np.array([3] * 4, dtype='int32'), 'E':pd.Categorical(["Luffy","Zoro","Nami","Robin"]), 'F':'onepice' })
df2
|
A |
B |
C |
D |
E |
F |
---|---|---|---|---|---|---|
0 |
1.0 |
2019-07-22 |
1.0 |
3 |
Luffy |
onepice |
1 |
1.0 |
2019-07-22 |
1.0 |
3 |
Zoro |
onepice |
2 |
1.0 |
2019-07-22 |
1.0 |
3 |
Nami |
onepice |
3 |
1.0 |
2019-07-22 |
1.0 |
3 |
Robin |
onepice |
查看数据
df.head() # 查看起始的几个 df.tail() # 查看末尾的几个
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
0.512688 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
0.734755 |
2019-07-28 |
0.641315 |
0.307451 |
0.582599 |
0.084260 |
2019-07-29 |
0.070572 |
0.937610 |
0.515065 |
0.961442 |
2019-07-30 |
0.906944 |
0.143410 |
0.875313 |
0.430607 |
df.index
DatetimeIndex(['2019-07-25', '2019-07-26', '2019-07-27', '2019-07-28', '2019-07-29', '2019-07-30'], dtype='datetime64[ns]', freq='D')
df.columns
Index(['A', 'B', 'C', 'D'], dtype='object')
df.describe()
|
A |
B |
C |
D |
---|---|---|---|---|
count |
6.000000 |
6.000000 |
6.000000 |
6.000000 |
mean |
0.457071 |
0.533592 |
0.533551 |
0.602658 |
std |
0.385674 |
0.340186 |
0.182570 |
0.327549 |
min |
0.030035 |
0.143410 |
0.385114 |
0.084260 |
25% |
0.119012 |
0.321800 |
0.420294 |
0.451127 |
50% |
0.452824 |
0.426720 |
0.469652 |
0.623721 |
75% |
0.782250 |
0.825356 |
0.565715 |
0.852836 |
max |
0.906944 |
0.959643 |
0.875313 |
0.961442 |
df.to_dict
<bound method DataFrame.to_dict of A B C D 2019-07-25 0.030035 0.364846 0.385114 0.892197 2019-07-26 0.264333 0.959643 0.418979 0.512688 2019-07-27 0.829229 0.488593 0.424240 0.734755 2019-07-28 0.641315 0.307451 0.582599 0.084260 2019-07-29 0.070572 0.937610 0.515065 0.961442 2019-07-30 0.906944 0.143410 0.875313 0.430607>
Sorting by an axis:
df.sort_index(axis=1,ascending=False)
|
D |
C |
B |
A |
---|---|---|---|---|
2019-07-25 |
0.892197 |
0.385114 |
0.364846 |
0.030035 |
2019-07-26 |
0.512688 |
0.418979 |
0.959643 |
0.264333 |
2019-07-27 |
0.734755 |
0.424240 |
0.488593 |
0.829229 |
2019-07-28 |
0.084260 |
0.582599 |
0.307451 |
0.641315 |
2019-07-29 |
0.961442 |
0.515065 |
0.937610 |
0.070572 |
2019-07-30 |
0.430607 |
0.875313 |
0.143410 |
0.906944 |
Sorting by values:
df.sort_values(by='C')
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
0.030035 |
0.364846 |
0.385114 |
0.892197 |
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
0.512688 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
0.734755 |
2019-07-29 |
0.070572 |
0.937610 |
0.515065 |
0.961442 |
2019-07-28 |
0.641315 |
0.307451 |
0.582599 |
0.084260 |
2019-07-30 |
0.906944 |
0.143410 |
0.875313 |
0.430607 |
标记
选择一个column:df[‘A’]或者df.A
Sorting by values:
.loc() 具有多种访问方式,如 –
- 单个标量标签
- 标签列表
- 切片对象
- 一个布尔数组
loc需要两个单/列表/范围运算符,用","分隔。第一个表示行,第二个表示列
df.loc[dates[0]]
A 0.030035 B 0.364846 C 0.385114 D 0.892197 Name: 2019-07-25 00:00:00, dtype: float64
df.loc[:,['A','B']]
|
A |
B |
---|---|---|
2019-07-25 |
0.030035 |
0.364846 |
2019-07-26 |
0.264333 |
0.959643 |
2019-07-27 |
0.829229 |
0.488593 |
2019-07-28 |
0.641315 |
0.307451 |
2019-07-29 |
0.070572 |
0.937610 |
2019-07-30 |
0.906944 |
0.143410 |
df.loc['20190726':'20190728',['A','B']]
|
A |
B |
---|---|---|
2019-07-26 |
0.264333 |
0.959643 |
2019-07-27 |
0.829229 |
0.488593 |
2019-07-28 |
0.641315 |
0.307451 |
.iloc()各种访问方式如下 –
- 整数
- 整数列表
- 系列值
df.iloc[[1,2,4],[0,2]]
|
A |
C |
---|---|---|
2019-07-26 |
0.264333 |
0.418979 |
2019-07-27 |
0.829229 |
0.424240 |
2019-07-29 |
0.070572 |
0.515065 |
df.iloc[1:3,:]
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
0.512688 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
0.734755 |
df.iloc[:,1:3]
|
B |
C |
---|---|---|
2019-07-25 |
0.364846 |
0.385114 |
2019-07-26 |
0.959643 |
0.418979 |
2019-07-27 |
0.488593 |
0.424240 |
2019-07-28 |
0.307451 |
0.582599 |
2019-07-29 |
0.937610 |
0.515065 |
2019-07-30 |
0.143410 |
0.875313 |
使用一个column的值去选择数据:
df[df.A>0]
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
0.030035 |
0.364846 |
0.385114 |
0.892197 |
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
0.512688 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
0.734755 |
2019-07-28 |
0.641315 |
0.307451 |
0.582599 |
0.084260 |
2019-07-29 |
0.070572 |
0.937610 |
0.515065 |
0.961442 |
2019-07-30 |
0.906944 |
0.143410 |
0.875313 |
0.430607 |
df[df>0]
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
0.030035 |
0.364846 |
0.385114 |
0.892197 |
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
0.512688 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
0.734755 |
2019-07-28 |
0.641315 |
0.307451 |
0.582599 |
0.084260 |
2019-07-29 |
0.070572 |
0.937610 |
0.515065 |
0.961442 |
2019-07-30 |
0.906944 |
0.143410 |
0.875313 |
0.430607 |
通过label设置value:
df.at[dates[0], 'A'] = 0
df
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
0.000000 |
0.364846 |
0.385114 |
0.892197 |
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
0.512688 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
0.734755 |
2019-07-28 |
0.641315 |
0.307451 |
0.582599 |
0.084260 |
2019-07-29 |
0.070572 |
0.937610 |
0.515065 |
0.961442 |
2019-07-30 |
0.906944 |
0.143410 |
0.875313 |
0.430607 |
通过位置设置value:
df.iat[0,1] = 0
df
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
0.000000 |
0.000000 |
0.385114 |
0.892197 |
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
0.512688 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
0.734755 |
2019-07-28 |
0.641315 |
0.307451 |
0.582599 |
0.084260 |
2019-07-29 |
0.070572 |
0.937610 |
0.515065 |
0.961442 |
2019-07-30 |
0.906944 |
0.143410 |
0.875313 |
0.430607 |
通过numpy数组来设置:
df.loc[:, 'D'] = np.array([5] * len(df))
df
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
0.000000 |
0.000000 |
0.385114 |
5 |
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
5 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
5 |
2019-07-28 |
0.641315 |
0.307451 |
0.582599 |
5 |
2019-07-29 |
0.070572 |
0.937610 |
0.515065 |
5 |
2019-07-30 |
0.906944 |
0.143410 |
0.875313 |
5 |
缺失值
删除缺失数据
df.dropna(how='any')
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
0.000000 |
0.000000 |
0.385114 |
5 |
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
5 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
5 |
2019-07-28 |
0.641315 |
0.307451 |
0.582599 |
5 |
2019-07-29 |
0.070572 |
0.937610 |
0.515065 |
5 |
2019-07-30 |
0.906944 |
0.143410 |
0.875313 |
5 |
填充/替换缺失数据
df.fillna(value=10)
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
0.000000 |
0.000000 |
0.385114 |
5 |
2019-07-26 |
0.264333 |
0.959643 |
0.418979 |
5 |
2019-07-27 |
0.829229 |
0.488593 |
0.424240 |
5 |
2019-07-28 |
0.641315 |
0.307451 |
0.582599 |
5 |
2019-07-29 |
0.070572 |
0.937610 |
0.515065 |
5 |
2019-07-30 |
0.906944 |
0.143410 |
0.875313 |
5 |
判断是否有缺失值数据
pd.isna(df)
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
False |
False |
False |
False |
2019-07-26 |
False |
False |
False |
False |
2019-07-27 |
False |
False |
False |
False |
2019-07-28 |
False |
False |
False |
False |
2019-07-29 |
False |
False |
False |
False |
2019-07-30 |
False |
False |
False |
False |
Apply
df.apply(np.cumsum)
|
A |
B |
C |
D |
---|---|---|---|---|
2019-07-25 |
0.000000 |
0.000000 |
0.385114 |
5 |
2019-07-26 |
0.264333 |
0.959643 |
0.804092 |
10 |
2019-07-27 |
1.093562 |
1.448236 |
1.228332 |
15 |
2019-07-28 |
1.734877 |
1.755688 |
1.810931 |
20 |
2019-07-29 |
1.805448 |
2.693298 |
2.325995 |
25 |
2019-07-30 |
2.712393 |
2.836708 |
3.201309 |
30 |
df.apply(lambda x: x.max() - x.min())
A 0.906944 B 0.959643 C 0.490200 D 0.000000 dtype: float64
查看表格某列中有多少个不同值的快捷方法,并计算每个不同值有在该列中有多少重复值。
s = pd.Series(np.random.randint(0, 7, size=10))
s
0 3 1 3 2 4 3 4 4 2 5 2 6 0 7 6 8 4 9 5 dtype: int64
s.value_counts()
3 4 4 3 5 2 2 1 dtype: int64
合并
concat:
df3 = pd.DataFrame(np.random.randn(10, 4))
df3
|
0 |
1 |
2 |
3 |
---|---|---|---|---|
0 |
0.546509 |
-0.645993 |
1.569857 |
-0.059439 |
1 |
3.143148 |
-0.357604 |
-0.610698 |
-1.032072 |
2 |
-0.593522 |
0.453311 |
0.033460 |
-1.163151 |
3 |
0.222209 |
0.542827 |
1.220938 |
0.540577 |
4 |
0.770124 |
-1.044302 |
-0.684126 |
0.990673 |
5 |
-0.324735 |
1.688151 |
1.202889 |
0.632073 |
6 |
0.385171 |
1.368965 |
-0.049633 |
0.697233 |
7 |
0.428143 |
0.012934 |
-0.745038 |
-0.570553 |
8 |
0.396524 |
0.804365 |
-1.310140 |
-0.246317 |
9 |
-0.438507 |
0.887196 |
1.272626 |
-2.558894 |
pieces = [df3[:3], df3[3:7], df3[7:]]
pieces
[ 0 1 2 3 0 0.546509 -0.645993 1.569857 -0.059439 1 3.143148 -0.357604 -0.610698 -1.032072 2 -0.593522 0.453311 0.033460 -1.163151, 0 1 2 3 3 0.222209 0.542827 1.220938 0.540577 4 0.770124 -1.044302 -0.684126 0.990673 5 -0.324735 1.688151 1.202889 0.632073 6 0.385171 1.368965 -0.049633 0.697233, 0 1 2 3 7 0.428143 0.012934 -0.745038 -0.570553 8 0.396524 0.804365 -1.310140 -0.246317 9 -0.438507 0.887196 1.272626 -2.558894]
pd.concat(pieces)
|
0 |
1 |
2 |
3 |
---|---|---|---|---|
0 |
0.546509 |
-0.645993 |
1.569857 |
-0.059439 |
1 |
3.143148 |
-0.357604 |
-0.610698 |
-1.032072 |
2 |
-0.593522 |
0.453311 |
0.033460 |
-1.163151 |
3 |
0.222209 |
0.542827 |
1.220938 |
0.540577 |
4 |
0.770124 |
-1.044302 |
-0.684126 |
0.990673 |
5 |
-0.324735 |
1.688151 |
1.202889 |
0.632073 |
6 |
0.385171 |
1.368965 |
-0.049633 |
0.697233 |
7 |
0.428143 |
0.012934 |
-0.745038 |
-0.570553 |
8 |
0.396524 |
0.804365 |
-1.310140 |
-0.246317 |
9 |
-0.438507 |
0.887196 |
1.272626 |
-2.558894 |
merge:
left = pd.DataFrame({'key': ['foo', 'foo'], 'lval': [1, 2]})
right = pd.DataFrame({'key': ['foo', 'foo'], 'rval': [4, 5]})
left
|
key |
lval |
---|---|---|
0 |
foo |
1 |
1 |
foo |
2 |
right
|
key |
rval |
---|---|---|
0 |
foo |
4 |
1 |
foo |
5 |
pd.merge(left, right, on='key')
|
key |
lval |
rval |
---|---|---|---|
0 |
foo |
1 |
4 |
1 |
foo |
1 |
5 |
2 |
foo |
2 |
4 |
3 |
foo |
2 |
5 |
append:
df = pd.DataFrame(np.random.randn(8, 4), columns=['A', 'B', 'C', 'D'])
df
|
A |
B |
C |
D |
---|---|---|---|---|
0 |
-0.580808 |
-0.929980 |
0.582348 |
-0.535886 |
1 |
-1.221695 |
-0.739676 |
-2.285674 |
1.760386 |
2 |
-0.105866 |
0.978615 |
0.793799 |
1.810907 |
3 |
-0.244317 |
0.806360 |
0.966249 |
0.662066 |
4 |
-0.134750 |
-0.596918 |
-0.260338 |
0.532753 |
5 |
-0.052537 |
1.517903 |
-1.092491 |
-0.634890 |
6 |
0.751423 |
-0.674670 |
-0.266553 |
-0.247528 |
7 |
0.677052 |
-1.403007 |
0.252095 |
-1.426274 |
s = df.iloc[4]
s
A -0.134750 B -0.596918 C -0.260338 D 0.532753 Name: 4, dtype: float64
df.append(s, ignore_index=True)
|
A |
B |
C |
D |
---|---|---|---|---|
0 |
-0.580808 |
-0.929980 |
0.582348 |
-0.535886 |
1 |
-1.221695 |
-0.739676 |
-2.285674 |
1.760386 |
2 |
-0.105866 |
0.978615 |
0.793799 |
1.810907 |
3 |
-0.244317 |
0.806360 |
0.966249 |
0.662066 |
4 |
-0.134750 |
-0.596918 |
-0.260338 |
0.532753 |
5 |
-0.052537 |
1.517903 |
-1.092491 |
-0.634890 |
6 |
0.751423 |
-0.674670 |
-0.266553 |
-0.247528 |
7 |
0.677052 |
-1.403007 |
0.252095 |
-1.426274 |
8 |
-0.134750 |
-0.596918 |
-0.260338 |
0.532753 |
分组
df = pd.DataFrame({'A': ['bao', 'xiao', 'bao', 'xiao', 'bao', 'xiao', 'bao', 'bao'], 'B': ['one', 'one', 'two', 'three', 'two', 'two', 'one', 'three'], 'C': np.random.randn(8), 'D': np.random.randn(8) })
df
|
A |
B |
C |
D |
---|---|---|---|---|
0 |
bao |
one |
0.213947 |
-0.725881 |
1 |
xiao |
one |
0.059765 |
0.279252 |
2 |
bao |
two |
0.331073 |
-0.106657 |
3 |
xiao |
three |
-1.168653 |
-0.493226 |
4 |
bao |
two |
1.149379 |
0.214320 |
5 |
xiao |
two |
-0.779205 |
-1.242145 |
6 |
bao |
one |
1.676725 |
-1.061910 |
7 |
bao |
three |
-0.085045 |
0.155202 |
df.groupby('A').sum()
|
C |
D |
---|---|---|
A |
|
|
bao |
3.286079 |
-1.524925 |
xiao |
-1.888093 |
-1.456119 |
数据输入/输出
CSV
df.to_csv('bao.csv')
pd.read_csv('bao.csv')
|
Unnamed: 0 |
A |
B |
C |
D |
---|---|---|---|---|---|
0 |
0 |
bao |
one |
0.213947 |
-0.725881 |
1 |
1 |
xiao |
one |
0.059765 |
0.279252 |
2 |
2 |
bao |
two |
0.331073 |
-0.106657 |
3 |
3 |
xiao |
three |
-1.168653 |
-0.493226 |
4 |
4 |
bao |
two |
1.149379 |
0.214320 |
5 |
5 |
xiao |
two |
-0.779205 |
-1.242145 |
6 |
6 |
bao |
one |
1.676725 |
-1.061910 |
7 |
7 |
bao |
three |
-0.085045 |
0.155202 |
HDF5
df.to_hdf('bao.h5', 'df')
pd.read_hdf('bao.h5', 'df')
|
A |
B |
C |
D |
---|---|---|---|---|
0 |
bao |
one |
0.213947 |
-0.725881 |
1 |
xiao |
one |
0.059765 |
0.279252 |
2 |
bao |
two |
0.331073 |
-0.106657 |
3 |
xiao |
three |
-1.168653 |
-0.493226 |
4 |
bao |
two |
1.149379 |
0.214320 |
5 |
xiao |
two |
-0.779205 |
-1.242145 |
6 |
bao |
one |
1.676725 |
-1.061910 |
7 |
bao |
three |
-0.085045 |
0.155202 |
Excle
df.to_excel('bao.xlsx', sheet_name='Sheet1')
pd.read_excel('bao.xlsx', 'Sheet1', index_col=None, na_values=['NA'])
|
A |
B |
C |
D |
---|---|---|---|---|
0 |
bao |
one |
0.213947 |
-0.725881 |
1 |
xiao |
one |
0.059765 |
0.279252 |
2 |
bao |
two |
0.331073 |
-0.106657 |
3 |
xiao |
three |
-1.168653 |
-0.493226 |
4 |
bao |
two |
1.149379 |
0.214320 |
5 |
xiao |
two |
-0.779205 |
-1.242145 |
6 |
bao |
one |
1.676725 |
-1.061910 |
7 |
bao |
three |
-0.085045 |
0.155202 |
