脚本之家,脚本语言编程技术及教程分享平台!
分类导航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服务器之家 - 脚本之家 - Python - python频繁写入文件时提速的方法

python频繁写入文件时提速的方法

2021-07-24 00:40 Python

在本篇内容里小编给大家整理了关于python频繁写入文件时提速的方法以及相关代码,需要的朋友们学习下。

问题背景:有一批需要处理的文件,对于每一个文件,都需要调用同一个函数进行处理,相当耗时。

有没有加速的办法呢?当然有啦,比如说你将这些文件分成若干批,每一个批次都调用自己写的python脚本进行处理,这样同时运行若干个python程序也可以进行加速。

有没有更简单的方法呢?比如说,我一个运行的一个程序里面,同时分为多个线程,然后进行处理?

大概思路:将这些个文件路径的list,分成若干个,至于分成多少,要看自己cpu核心有多少,比如你的cpu有32核的,理论上就可以加速32倍。

代码如下:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
# -*-coding:utf-8-*-
 
import numpy as np
 
from glob import glob
 
import math
 
import os
 
import torch
 
from tqdm import tqdm
 
import multiprocessing
 
label_path = '/home/ying/data/shiyongjie/distortion_datasets/new_distortion_dataset/train/label.txt'
 
file_path = '/home/ying/data/shiyongjie/distortion_datasets/new_distortion_dataset/train/distortion_image'
 
save_path = '/home/ying/data/shiyongjie/distortion_datasets/new_distortion_dataset/train/flow_field'
 
r_d_max = 128
 
image_index = 0
 
txt_file = open(label_path)
 
file_list = txt_file.readlines()
 
txt_file.close()
 
file_label = {}
 
for i in file_list:
 
  i = i.split()
 
  file_label[i[0]] = i[1]
 
r_d_max = 128
 
eps = 1e-32
 
H = 256
 
W = 256
 
def generate_flow_field(image_list):
 
  for image_file_path in ((image_list)):
 
    pixel_flow = np.zeros(shape=tuple([256, 256, 2])) # 按照pytorch中的grid来写
 
    image_file_name = os.path.basename(image_file_path)
 
    # print(image_file_name)
 
    k = float(file_label[image_file_name])*(-1)*1e-7
 
    # print(k)
 
    r_u_max = r_d_max/(1+k*r_d_max**2) # 计算出畸变校正之后的对角线的理论长度
 
    scale = r_u_max/128 # 将这个长度压缩到256的尺寸,会有一个scale,实际上这里写128*sqrt(2)可能会更加直观
 
    for i_u in range(256):
 
      for j_u in range(256):
 
        x_u = float(i_u - 128)
 
        y_u = float(128 - j_u)
 
        theta = math.atan2(y_u, x_u)
 
        r = math.sqrt(x_u ** 2 + y_u ** 2)
 
        r = r * scale # 实际上得到的r,即没有resize到256×256的图像尺寸size,并且带入公式中
 
        r_d = (1.0 - math.sqrt(1 - 4.0 * k * r ** 2)) / (2 * k * r + eps) # 对应在原图(畸变图)中的r
 
        x_d = int(round(r_d * math.cos(theta)))
 
        y_d = int(round(r_d * math.sin(theta)))
 
        i_d = int(x_d + W / 2.0)
 
        j_d = int(H / 2.0 - y_d)
 
        if i_d < W and i_d >= 0 and j_d < H and j_d >= 0: # 只有求的的畸变点在原图中的时候才进行赋值
 
          value1 = (i_d - 128.0)/128.0
 
          value2 = (j_d - 128.0)/128.0
 
          pixel_flow[j_u, i_u, 0] = value1 # mesh中存储的是对应的r的比值,在进行畸变校正的时候,给定一张这样的图,进行找像素即可
 
          pixel_flow[j_u, i_u, 1] = value2
 
# 保存成array格式
 
    saved_image_file_path = os.path.join(save_path, image_file_name.split('.')[0] + '.npy')
 
    pixel_flow = pixel_flow.astype('f2') # 将数据的格式转换成float16类型, 节省空间
 
    # print(saved_image_file_path)
 
    # print(pixel_flow)
 
    np.save(saved_image_file_path, pixel_flow)
 
  return
 
if __name__ == '__main__':
 
  file_list = glob(file_path + '/*.JPEG')
 
  m = 32
 
  n = int(math.ceil(len(file_list) / float(m))) # 向上取整
 
  result = []
 
  pool = multiprocessing.Pool(processes=m) # 32进程
 
  for i in range(0, len(file_list), n):
 
    result.append(pool.apply_async(generate_flow_field, (file_list[i: i+n],)))
 
  pool.close()
 
  pool.join()

在上面的代码中,函数

generate_flow_field(image_list)

需要传入一个list,然后对于这个list进行操作,之后对操作的结果进行保存

所以,只需要将你需要处理的多个文件,切分成尽量等大小的list,然后再对每一个list,开一个线程进行处理即可

上面的主函数:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
if __name__ == '__main__':
 
  file_list = glob(file_path + '/*.JPEG') # 将文件夹下所有的JPEG文件列成一个list
 
  m = 32 # 假设CPU有32个核心
 
  n = int(math.ceil(len(file_list) / float(m))) # 每一个核心需要处理的list的数目
 
  result = []
 
  pool = multiprocessing.Pool(processes=m) # 开32线程的线程池
 
  for i in range(0, len(file_list), n):
 
    result.append(pool.apply_async(generate_flow_field, (file_list[i: i+n],))) # 对每一个list都用上面我们定义的函数进行处理
 
  pool.close() # 处理结束之后,关闭线程池
 
  pool.join()

主要是这样的两行代码,一行是

?
1
pool = multiprocessing.Pool(processes=m) # 开32线程的线程池

用来开辟线程池

另外一行是

?
1
result.append(pool.apply_async(generate_flow_field, (file_list[i: i+n],))) # 对每一个list都用上面我们定义的函数进行处理

对于线程池,用apply_async()同时跑generate_flow_field这个函数,传入的参数是:file_list[i: i+n]

实际上apply_async()这个函数的作用是所有的线程同时跑,速度是比较快的。

扩展:

Python文件处理之文件写入方式与写缓存来提高速度和效率

Python的open的写入方式有:

write(str):将str写入文件

writelines(sequence of strings):写多行到文件,参数为可迭代对象

?
1
2
f = open('blogCblog.txt', 'w') #首先先创建一个文件对象,打开方式为w
f.writelines('123456') #用readlines()方法写入文件

 

运行上面结果之后,可以看到blogCblog.txt文件有123456内容,这里需要注意的是,mode为‘w'模式(写模式),再来看下面代码:

?
1
2
f = open('blogCblog.txt', 'w') #首先先创建一个文件对象,打开方式为w
f.writelines(123456) #用readlines()方法写入文件

 

运行上面代码之后会报一个TypeError,这是因为writelines传入的参数并不是一个可迭代的对象。

以上就是关于python频繁写入文件怎么提速的相关知识点以及扩展内容,感谢大家的阅读。

延伸 · 阅读

精彩推荐