pyspark函数中的奇怪字符

时间:2017-10-18 16:35:14

标签: text unicode pyspark

我试图了解PySpark如何处理奇怪的字符(例如西班牙语口音)。 如果我把

print 'áááájgmdkfk'

工作和打印

Áááájgmdkfk

但是,如果我用奇怪的字符定义一个函数,我会收到一个错误:

def dummy():
    print 'áááájgmdkfk'

UnicodeDecodeError: 'ascii' codec can't decode byte 0xe1 in position 1: ordinal not in range(128)

有谁知道为什么我不能在函数中使用奇怪的字符?

0 个答案:

没有答案