Scala演员效率低下问题

时间:2012-07-30 16:05:56

标签: java scala jvm actor

首先让我说我是斯卡拉的新手;但是,我发现基于Actor的并发模型很有趣,我试着给它一个相对简单的应用程序。我遇到的问题是,虽然我能够让应用程序工作,但结果远远低于基于Java的等效解决方案的效率(就实时,CPU时间和内存使用而言)。使用从ArrayBlockingQueue中提取消息的线程。我想明白为什么。我怀疑这可能是我缺乏Scala知识,并且我造成了所有低效率,但经过几次尝试重新编写应用程序但没有成功,我决定联系社区寻求帮助。

我的问题是: 我有一个gzip压缩文件,其格式为:

SomeID comma_separated_list_of_values

例如:

1234 12,45,82

我想解析每一行,并得到逗号分隔列表中每个值出现次数的总体计数。

此文件可能非常大(几GB压缩),但每个文件的唯一值数量非常小(最多500个)。我认为这是一个尝试编写基于Actor的并发Scala应用程序的好机会。我的解决方案涉及一个主驱动程序,它创建一个解析器Actors池。然后主驱动程序从stdin读取行,将行传递给一个解析行的Actor并保持值的本地计数。当主驱动程序读取最后一行时,它会向每个actor传递一条消息,指示已读取所有行。当演员收到“完成”消息时,他们将计数传递给聚合器,该聚合器对所有演员的计数进行求和。一旦聚合了所有解析器的计数,主驱动程序就会打印出统计信息。

问题: 我遇到的主要问题是这个应用程序的低效率。与使用线程和ArrayBlockingQueue的“等效”Java应用程序相比,它使用了更多的CPU和更多的内存。为了更好地理解这一点,以下是我为1000万行测试输入文件收集的一些统计数据:

Scala 1 Actor(解析器):

    real    9m22.297s
    user    235m31.070s
    sys     21m51.420s

Java 1 Thread(解析器):

    real    1m48.275s
    user    1m58.630s
    sys     0m33.540s

Scala 5演员:

    real    2m25.267s
    user    63m0.730s
    sys     3m17.950s

Java 5线程:

    real    0m24.961s
    user    1m52.650s
    sys     0m20.920s

此外,top报告称Scala应用程序的驻留内存大小约为10倍。所以我们谈论的是更多的CPU和内存量级,以达到数量级更差的性能,而我无法弄清楚导致这种情况的原因。这是一个GC问题,还是我以某种方式创建了比我意识到的更多的对象副本?

可能重要但可能不重要的其他细节:

  • scala应用程序由Java类包装,以便我可以 提供一个自包含的可执行JAR文件(我没有Scala 我可能想要运行此应用程序的每台机器上的jar)。
  • 正在调用应用程序如下:gunzip -c gzFilename | java -jar StatParser.jar

以下是代码:

主要驱动程序:

import scala.actors.Actor._
import scala.collection.{ immutable, mutable }
import scala.io.Source

class StatCollector (numParsers : Int ) {
    private val parsers = new mutable.ArrayBuffer[StatParser]()
    private val aggregator = new StatAggregator()

    def generateParsers {
        for ( i <- 1 to numParsers ) {
            val parser = new StatParser( i, aggregator )
            parser.start
            parsers += parser
        }
    }


    def readStdin {
        var nextParserIdx = 0
        var lineNo = 1
        for ( line <- Source.stdin.getLines() ) {
            parsers( nextParserIdx ) ! line
            nextParserIdx += 1
            if ( nextParserIdx >= numParsers ) {
                nextParserIdx = 0
            }
            lineNo += 1
        }
    }

    def informParsers {
        for ( parser <- parsers ) {
            parser ! true
        }
    }

    def printCounts {
        val countMap = aggregator.getCounts()
        println( "ID,Count" )
        /*
        for ( key <- countMap.keySet ) {
            println( key + "," + countMap.getOrElse( key, 0 ) )
            //println( "Campaign '" + key + "': " + countMap.getOrElse( key, 0 ) )
        }
        */
        countMap.toList.sorted foreach {
            case (key, value) =>
                println( key + "," + value )
        }
    }

    def processFromStdIn {
        aggregator.start

        generateParsers

        readStdin
        process
    }

    def process {

        informParsers

        var completedParserCount = aggregator.getNumParsersAggregated
        while ( completedParserCount < numParsers ) {
            Thread.sleep( 250 )
            completedParserCount = aggregator.getNumParsersAggregated
        }

        printCounts
    }
}

The Parser Actor:

import scala.actors.Actor
import collection.mutable.HashMap
import scala.util.matching

class StatParser( val id: Int, val aggregator: StatAggregator ) extends Actor {

    private var countMap = new HashMap[String, Int]()
    private val sep1 = "\t"
    private val sep2 = ","


    def getCounts(): HashMap[String, Int] = {
        return countMap
    }

    def act() {
        loop {
            react {
                case line: String =>
                    {
                        val idx = line.indexOf( sep1 )
                        var currentCount = 0
                        if ( idx > 0 ) {
                            val tokens = line.substring( idx + 1 ).split( sep2 )
                            for ( token <- tokens ) {
                                if ( !token.equals( "" ) ) {
                                    currentCount = countMap.getOrElse( token, 0 )
                                    countMap( token ) = ( 1 + currentCount )
                                }
                            }

                        }
                    }
                case doneProcessing: Boolean =>
                    {
                        if ( doneProcessing ) {
                            // Send my stats to Aggregator
                            aggregator ! this
                        }
                    }
            }
        }
    }
}

聚合器演员:

import scala.actors.Actor
import collection.mutable.HashMap

class StatAggregator extends Actor {
    private var countMap = new HashMap[String, Int]()
    private var parsersAggregated = 0

    def act() {
        loop {
            react {
                case parser: StatParser =>
                    {
                        val cm = parser.getCounts()
                        for ( key <- cm.keySet ) {
                            val currentCount = countMap.getOrElse( key, 0 )
                            val incAmt = cm.getOrElse( key, 0 )
                            countMap( key ) = ( currentCount + incAmt )
                        }
                        parsersAggregated += 1
                    }
            }
        }
    }

    def getNumParsersAggregated: Int = {
        return parsersAggregated
    }

    def getCounts(): HashMap[String, Int] = {
        return countMap
    }
}

在理解这里发生的事情时可以提供的任何帮助将不胜感激。

提前致谢!

----编辑---

由于许多人回复并要求提供Java代码,因此这是我为比较目的而创建的简单Java应用程序。我意识到这不是很好的Java代码,但是当我看到Scala应用程序的性能时,我只是快速地看到一些基于Java线程的实现将如何作为基线执行:

解析线程:

import java.util.Hashtable;
import java.util.Map;
import java.util.concurrent.ArrayBlockingQueue;
import java.util.concurrent.TimeUnit;

public class JStatParser extends Thread
{
    private ArrayBlockingQueue<String> queue;
    private Map<String, Integer> countMap;
    private boolean done;

    public JStatParser( ArrayBlockingQueue<String> q )
    {
        super( );
        queue = q;
        countMap = new Hashtable<String, Integer>( );
        done = false;
    }

    public Map<String, Integer> getCountMap( )
    {
        return countMap;
    }

    public void alldone( )
    {
        done = true;
    }

    @Override
    public void run( )
    {
        String line = null;
        while( !done || queue.size( ) > 0 )
        {
            try
            {
                // line = queue.take( );
                line = queue.poll( 100, TimeUnit.MILLISECONDS );
                if( line != null )
                {
                    int idx = line.indexOf( "\t" ) + 1;
                    for( String token : line.substring( idx ).split( "," ) )
                    {
                        if( !token.equals( "" ) )
                        {
                            if( countMap.containsKey( token ) )
                            {
                                Integer currentCount = countMap.get( token );
                                currentCount++;
                                countMap.put( token, currentCount );
                            }
                            else
                            {
                                countMap.put( token, new Integer( 1 ) );
                            }
                        }
                    }
                }
            }
            catch( InterruptedException e )
            {
                // TODO Auto-generated catch block
                System.err.println( "Failed to get something off the queue: "
                        + e.getMessage( ) );
                e.printStackTrace( );
            }
        }
    }
}

驱动:

import java.io.BufferedReader;
import java.io.FileReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.util.ArrayList;
import java.util.Collections;
import java.util.Hashtable;
import java.util.List;
import java.util.Map;
import java.util.TreeSet;
import java.util.concurrent.ArrayBlockingQueue;

public class JPS
{
    public static void main( String[] args )
    {
        if( args.length <= 0 || args.length > 2 || args[0].equals( "-?" ) )
        {
            System.err.println( "Usage: JPS [filename]" );
            System.exit( -1 );
        }

        int numParsers = Integer.parseInt( args[0] );
        ArrayBlockingQueue<String> q = new ArrayBlockingQueue<String>( 1000 );
        List<JStatParser> parsers = new ArrayList<JStatParser>( );

        BufferedReader reader = null;

        try
        {
            if( args.length == 2 )
            {
                reader = new BufferedReader( new FileReader( args[1] ) );
            }
            else
            {
                reader = new BufferedReader( new InputStreamReader( System.in ) );
            }

            for( int i = 0; i < numParsers; i++ )
            {
                JStatParser parser = new JStatParser( q );
                parser.start( );
                parsers.add( parser );
            }

            String line = null;
            while( (line = reader.readLine( )) != null )
            {
                try
                {
                    q.put( line );
                }
                catch( InterruptedException e )
                {
                    // TODO Auto-generated catch block
                    System.err.println( "Failed to add line to q: "
                            + e.getMessage( ) );
                    e.printStackTrace( );
                }
            }

            // At this point, we've put everything on the queue, now we just
            // need to wait for it to be processed.
            while( q.size( ) > 0 )
            {
                try
                {
                    Thread.sleep( 250 );
                }
                catch( InterruptedException e )
                {
                }
            }

            Map<String,Integer> countMap = new Hashtable<String,Integer>( );
            for( JStatParser jsp : parsers )
            {
                jsp.alldone( );
                Map<String,Integer> cm = jsp.getCountMap( );
                for( String key : cm.keySet( ) )
                {
                    if( countMap.containsKey( key ))
                    {
                        Integer currentCount = countMap.get(  key );
                        currentCount += cm.get( key );
                        countMap.put( key, currentCount );
                    }
                    else
                    {
                        countMap.put(  key, cm.get( key ) );
                    }
                }
            }

            System.out.println( "ID,Count" );
            for( String key : new TreeSet<String>(countMap.keySet( ))  )
            {
                System.out.println( key + "," + countMap.get( key ) );
            }

            for( JStatParser parser : parsers )
            {
                try
                {
                    parser.join( 100 );
                }
                catch( InterruptedException e )
                {
                    // TODO Auto-generated catch block
                    e.printStackTrace();
                }
            }

            System.exit(  0  );
        }
        catch( IOException e )
        {
            System.err.println( "Caught exception: " + e.getMessage( ) );
            e.printStackTrace( );
        }
    }
}

2 个答案:

答案 0 :(得分:7)

我不确定这对演员来说是个不错的测试案例。首先,演员之间几乎没有互动。这是一个简单的map / reduce,它需要并行性,而不是并发性。

actor的开销也很大,我不知道分配了多少实际线程。根据您拥有的处理器数量,您可能拥有的线程数量少于Java程序 - 考虑到加速速度是4倍而不是5倍,这似乎就是这种情况。

你编写演员的方式是针对 idle 演员进行优化的,那种情况你有数百或数千或演员,但只有少数人在任何时候都在做实际的工作。如果您使用while / receive而不是loop / react来编写演员,那么他们的表现会更好。

现在,演员可以轻松地在多台计算机上分发应用程序,除非您违反了演员的原则之一:您正在调用actor对象上的方法。你永远不应该与演员这样做,事实上,Akka阻止你这样做。执行此操作的更多方式是聚合器向每个actor询问其键集,计算它们的并集,然后,对于每个键,要求所有actor发送其对该键的计数。

但是,我不确定演员的开销是你所看到的。您没有提供有关Java实现的信息,但我敢说您使用可变映射,甚至可能使用单个并发可变映射 - 这与您在Scala中执行的实现完全不同。

还没有关于如何读取文件的信息(这样一个大文件可能有缓冲问题),或者如何在Java中解析它。由于大多数工作都是读取和解析文件,而不是计算令牌,因此实施方面的差异可以轻松解决任何其他问题。

最后,关于驻留内存大小,Scala有一个9 MB的库(除了JVM带来的内容),这可能就是你所看到的。当然,如果你在Java中使用单个并发映射与在Scala中使用6个不可变映射,那肯定会对内存使用模式产生很大影响。

答案 1 :(得分:-1)

Scala actors让位Akka actors最后几天......还有更多的事情要发生 - 维克托尔正在进一步努力做到最好:https://twitter.com/viktorklang/status/229694698397257728

BTW:开源是强大的力量!这一天应该是所有基于JVM的社区的假期:

http://www.marketwire.com/press-release/azul-systems-announces-new-initiative-support-open-source-community-with-free-zing-jvm-1684899.htm