首页 > 后端开发 > Python教程 > 如何在 PySpark 中将向量列拆分为行?

如何在 PySpark 中将向量列拆分为行?

Patricia Arquette
发布: 2024-10-31 20:10:01
原创
527 人浏览过

How to Split a Vector Column into Rows in PySpark?

在 PySpark 中将向量列拆分为行

在 PySpark 中,将包含向量值的列拆分为每个维度的单独列是常见的任务。本文将指导您通过不同的方法来实现此目的:

Spark 3.0.0 及更高版本

Spark 3.0.0 引入了 vector_to_array 函数,简化了此过程:

<code class="python">from pyspark.ml.functions import vector_to_array

df = df.withColumn("xs", vector_to_array("vector"))</code>
登录后复制

然后您可以选择所需的列:

<code class="python">df.select(["word"] + [col("xs")[i] for i in range(3)])</code>
登录后复制
登录后复制

Spark 小于 3.0.0

方法 1:转换到 RDD

<code class="python">def extract(row):
    return (row.word, ) + tuple(row.vector.toArray().tolist())

df.rdd.map(extract).toDF(["word"])  # Vector values will be named _2, _3, ...</code>
登录后复制

方法 2:使用 UDF

<code class="python">from pyspark.sql.functions import udf, col
from pyspark.sql.types import ArrayType, DoubleType

def to_array(col):
    def to_array_(v):
        return v.toArray().tolist()
    return udf(to_array_, ArrayType(DoubleType())).asNondeterministic()(col)

df = df.withColumn("xs", to_array(col("vector")))</code>
登录后复制

选择所需的列:

<code class="python">df.select(["word"] + [col("xs")[i] for i in range(3)])</code>
登录后复制
登录后复制

通过实现这些方法中的任何一种,您都可以有效地将向量列拆分为单独的列,从而更轻松地处理和分析数据。

以上是如何在 PySpark 中将向量列拆分为行?的详细内容。更多信息请关注PHP中文网其他相关文章!

来源:php.cn
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
作者最新文章
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板