本文旨在解决使用pandas和多进程读取海量csv文件进行xgboost训练时遇到的内存瓶颈。核心策略包括利用xgboost的dmatrix外部内存机制处理超大数据集,以及优化pandas数据加载流程,具体涉及将i/o密集型任务切换至线程池执行器,并采用一次性批量拼接dataframe以提高效率并降低内存开销。这些方法旨在确保在资源有限的环境下,也能高效、稳定地处理大规模机器学习数据集。
在机器学习实践中,特别是面对XGBoost等强大模型时,处理大规模数据集(例如数百万行、数十GB甚至上TB的数据)是常态。然而,将这些海量数据一次性加载到内存中,往往会导致内存溢出(OOM)错误,尤其是在资源受限的训练实例上。为了高效且稳定地处理这类挑战,我们需要采用针对性的数据加载和管理策略。
对于极其庞大的数据集,XGBoost本身提供了强大的外部内存(External Memory)解决方案,这是处理远超可用RAM数据量的根本方法。XGBoost的DMatrix是其内部数据结构,专为高效训练而设计,并支持通过自定义迭代器(custom iterator)分块加载数据。
核心思想: XGBoost的外部内存功能允许用户定义一个迭代器,该迭代器按需(on-demand)地加载数据块,而不是将整个数据集一次性载入内存。这意味着,无论数据集有多大,只要能够以块的形式读取,XGBoost就能进行训练。这种方法对于训练和预测都适用,但主要优势体现在训练阶段,因为它避免了将整个数据集常驻内存的需求。
实
现原理:
通过实现一个符合特定接口的Python迭代器,XGBoost会在需要数据时调用该迭代器来获取下一个数据块。这使得用户可以控制数据的加载粒度,例如从磁盘读取、网络流或数据库中分批获取数据。
优势:
参考资料: 由于实现自定义迭代器涉及XGBoost的特定API和数据流管理,建议查阅XGBoost官方文档中关于外部内存的详细教程,以获取最准确和最新的实现指导。
即使XGBoost提供了外部内存机制,但在数据预处理阶段,我们可能仍需使用Pandas进行初步的数据读取和合并。此时,优化Pandas的并发读取策略至关重要。原始方法中存在两个主要的性能和内存瓶颈:
进程池(ProcessPoolExecutor)的局限性:
线程池(ThreadPoolExecutor)的优势:
因此,对于并发读取文件的场景,应优先选择ThreadPoolExecutor。
在循环中通过pd.concat([df, _df])反复拼接DataFrame是Pandas操作中的一大性能陷阱。每次pd.concat都会创建一个新的DataFrame,并将所有旧数据和新数据复制到新的内存区域,这会导致:
推荐策略: 将所有待拼接的子DataFrame收集到一个列表中,然后在所有读取任务完成后,执行一次性的大批量pd.concat操作。
结合上述两点优化,改进后的数据读取函数如下:
import pandas as pd
import multiprocessing as mp
from concurrent.futures import ThreadPoolExecutor, wait
from typing import List
# 假设 _read_training_data 和 train_mdirnames 已定义
# def _read_training_data(training_data_path: str) -> pd.DataFrame:
# """Reads a single CSV file into a DataFrame."""
# df = pd.read_csv(training_data_path)
# return df
# def train_mdirnames(paths: List[str]) -> List[str]:
# """Generates a list of file paths to read."""
# # This function needs to be implemented based on your directory structure
# # For demonstration, let's assume it just returns the input paths
# return paths
def read_training_data_optimized(
paths: List[str]
) -> pd.DataFrame:
"""
Optimized function to read multiple CSV files concurrently using ThreadPoolExecutor
and perform a single concatenation.
"""
# lazy loading of modules for training (if applicable)
# import multiprocessing as mp # Already imported for cpu_count if needed
# from concurrent.futures import ThreadPoolExecutor, wait # Already imported
# get directories (assuming ipaths is a list of file paths)
ipaths = paths # Placeholder, replace with actual train_mdirnames(paths)
print(f'Start parallel data reading with ThreadPoolExecutor. Using default workers.')
# Use ThreadPoolExecutor for I/O-bound operations
# By default, ThreadPoolExecutor uses a heuristic for max_workers,
# often min(32, os.cpu_count() + 4) for Python 3.8+
# You can also set a custom number, e.g., max_workers=mp.cpu_count() * 5
with ThreadPoolExecutor() as executor:
# Submit all tasks
tasks = [
executor.submit(_read_training_data, ipath)
for ipath in ipaths
]
# Wait for all tasks to complete
# wait() is preferred here over as_completed() because we need all results
# before the single pd.concat call.
wait(tasks)
# Collect results and perform a single concatenation
# This avoids repeated memory reallocations and copies.
dataframes = [future.result() for future in tasks]
df = pd.concat(dataframes, ignore_index=True) # ignore_index=True for clean index
print(f'Have read {len(df)} data points')
return df
# Example usage (assuming _read_training_data is defined elsewhere)
# def _read_training_data(path):
# print(f"Reading {path}...")
# return pd.DataFrame({'col1': range(1000), 'col2': range(1000)}) # Mock data
# file_paths = [f'data_{i}.csv' for i in range(10)]
# final_df = read_training_data_optimized(file_paths)
# print(final_df.head())
# print(f"Final DataFrame shape: {final_df.shape}")代码解释:
处理海量数据进行XGBoost训练是一个常见的挑战。解决内存溢出问题需要多管齐下:
结合这两种策略,开发者可以更高效、更稳定地在各种计算资源环境下处理和训练大规模机器学习模型。
# python
# 大数据
# app
# csv
# ai
# 大模型
# csv文件
# 内存占用
# red
相关文章:
制作网站外包平台,自动化接单网站有哪些?
如何实现建站之星域名转发设置?
大连网站设计制作招聘信息,大连投诉网站有哪些?
网站制作服务平台,有什么网站可以发布本地服务信息?
如何通过老薛主机一键快速建站?
香港服务器网站搭建教程-电商部署、配置优化与安全稳定指南
沈阳个人网站制作公司,哪个网站能考到沈阳事业编招聘的信息?
建站三合一如何选?哪家性价比更高?
制作网站建设的公司有哪些,网站建设比较好的公司都有哪些?
如何用IIS7快速搭建并优化网站站点?
制作证书网站有哪些,全国城建培训中心证书查询官网?
详解ASP.NET 生成二维码实例(采用ThoughtWorks.QRCode和QrCode.Net两种方式)
GML (Geography Markup Language)是什么,它如何用XML来表示地理空间信息?
深入理解Android中的xmlns:tools属性
平台云上自助建站如何快速打造专业网站?
建站之星北京办公室:智能建站系统与小程序生成方案解析
重庆市网站制作公司,重庆招聘网站哪个好?
一键网站制作软件,义乌购一件代发流程?
企业在线网站设计制作流程,想建设一个属于自己的企业网站,该如何去做?
如何通过VPS搭建网站快速盈利?
巅云智能建站系统:可视化拖拽+多端适配+免费模板一键生成
建站之星安装需要哪些步骤及注意事项?
如何通过二级域名建站提升品牌影响力?
小自动建站系统:AI智能生成+拖拽模板,多端适配一键搭建
Python路径拼接规范_跨平台处理说明【指导】
企业微网站怎么做,公司网站和公众号有什么区别?
如何通过虚拟主机空间快速建站?
如何在阿里云虚拟机上搭建网站?步骤解析与避坑指南
Python如何创建带属性的XML节点
如何用AWS免费套餐快速搭建高效网站?
建站之星如何实现PC+手机+微信网站五合一建站?
,想在网上投简历,哪几个网站比较好?
再谈Python中的字符串与字符编码(推荐)
c# 在高并发场景下,委托和接口调用的性能对比
江苏网站制作公司有哪些,江苏书法考级官方网站?
如何获取开源自助建站系统免费下载链接?
建站之星如何优化SEO以实现高效排名?
网站制作公司排行榜,四大门户网站排名?
如何做网站制作流程,*游戏网站怎么搭建?
网站制作中优化长尾关键字挖掘的技巧,建一个视频网站需要多少钱?
代刷网站制作软件,别人代刷火车票靠谱吗?
高配服务器限时抢购:企业级配置与回收服务一站式优惠方案
如何在IIS管理器中快速创建并配置网站?
如何制作网站标识牌,动态网站如何制作(教程)?
c++如何打印函数堆栈信息_c++ backtrace函数与符号名解析【方法】
C++如何编写函数模板?(泛型编程入门)
c# 在高并发下使用反射发射(Reflection.Emit)的性能
头像制作网站在线观看,除了站酷,还有哪些比较好的设计网站?
如何在Windows环境下新建FTP站点并设置权限?
制作网页的网站有哪些,电脑上怎么做网页?
*请认真填写需求信息,我们会在24小时内与您取得联系。