No es posible obtener datos de Cassandra usando spark (java)

Soy nuevo en Cassandra y Spark e intento obtener datos de DB usando spark. Estoy usando Java para este propósito. El problema es que no se produjeron excepciones o se produjo un error, pero aún así no puedo obtener los datos. Encuentra mi código a continuación -

    SparkConf sparkConf = new SparkConf();
    sparkConf.setAppName("Spark-Cassandra Integration");
    sparkConf.setMaster("local[4]");
    sparkConf.set("spark.cassandra.connection.host", "stagingHost22");
    sparkConf.set("spark.cassandra.connection.port", "9042");

    sparkConf.set("spark.cassandra.connection.timeout_ms", "5000");
    sparkConf.set("spark.cassandra.read.timeout_ms", "200000");


    JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);
    String keySpaceName = "testKeySpace";
    String tableName = "testTable";

    CassandraJavaRDD<CassandraRow> cassandraRDD = CassandraJavaUtil.javaFunctions(javaSparkContext).cassandraTable(keySpaceName, tableName);

    final ArrayList dataList = new ArrayList();
    JavaRDD<String> userRDD = cassandraRDD.map(new Function<CassandraRow, String>() {

        private static final long serialVersionUID = -165799649937652815L;


        public String call(CassandraRow row) throws Exception {
            System.out.println("Inside RDD call");
            dataList.add(row);
            return "test";
        }
    });
    System.out.println( "data Size -" + dataList.size());

Las dependencias de Cassandra y spark maven son:

      <dependency>
        <groupId>com.datastax.cassandra</groupId>
        <artifactId>cassandra-driver-core</artifactId>
        <version>3.0.0</version>
    </dependency>

    <dependency>
        <groupId>com.datastax.cassandra</groupId>
        <artifactId>cassandra-driver-mapping</artifactId>
        <version>3.0.0</version>
    </dependency>

    <dependency>
        <groupId>com.datastax.cassandra</groupId>
        <artifactId>cassandra-driver-extras</artifactId>
        <version>3.0.0</version>
    </dependency>
    <dependency>
        <groupId>com.sparkjava</groupId>
        <artifactId>spark-core</artifactId>
        <version>2.5.4</version>
    </dependency>
     <dependency>
        <groupId>com.datastax.spark</groupId>
        <artifactId>spark-cassandra-connector_2.10</artifactId>
        <version>2.0.0-M3</version>
    </dependency>
     <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.10</artifactId>
        <version>1.4.0</version>
    </dependency>

    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-sql_2.10</artifactId>
        <version>1.3.0</version>
    </dependency>

Esto es seguro de que el host stagingHost22 tiene los datos de cassandra con espacio de claves - testKeySpace y nombre de tabla - testTable. Encuentre a continuación el resultado de la consulta:

cqlsh: testKeySpace> select count (*) from testTable;

contar

34

(1 filas)

¿Alguien puede sugerirme qué me estoy perdiendo aquí?

Gracias por adelantado.

Un cordial saludo,

Vibhav

Respuesta 1

Sé que 2389% 10 es 9, pero ¿cómo podría crear un método que tome 2 parámetros? Uno para el número y el otro para el índice y devolverá el valor en el índice ...

Actualmente estoy empezando a aprender Java y he intentado recrear el Juego de la vida de Conway. Mi código funciona a medida que las células mueren y nacen, pero no parecen seguir las reglas previstas. Soy ...

Quiero verificar cuánta memoria se usa en mi aplicación Java, y luego usé: System.out.println ("Memoria libre (bytes):" + Runtime.getRuntime (). FreeMemory () / (1024 * 1024 * 1024 )); ...

Estoy haciendo ingeniería inversa de algún código que está descifrando datos, con la esperanza de poder volver a cifrarlos y obtener los mismos datos con los que comenzó, por razones que harían esta pregunta demasiado larga y ...