国产成人精品18p,天天干成人网,无码专区狠狠躁天天躁,美女脱精光隐私扒开免费观看

spark sql與mysql數據怎么加載并導出數據到mysql

發(fā)布時(shí)間:2021-09-04 11:56 來(lái)源:億速云 閱讀:0 作者:chen 欄目: 網(wǎng)絡(luò )安全

本篇內容主要講解“spark sql與數據怎么加載并導出數據到mysql”,感興趣的朋友不妨來(lái)看看。本文介紹的方法操作簡(jiǎn)單快捷,實(shí)用性強。下面就讓小編來(lái)帶大家學(xué)習“spark sql與mysql數據怎么加載并導出數據到mysql”吧!

package hgs.spark.sql
import org.apache.spark.SparkConf
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.sql.SQLContext
import org.apache.spark.sql.SQLImplicits
import org.apache.spark.sql.types.StructType
import org.apache.spark.sql.types.StructField
import org.apache.spark.sql.types.StringType
import org.apache.spark.sql.types.IntegerType
import org.apache.spark.sql.Row
import java.util.Properties
//第一種方法創(chuàng  )建dataframe
object SqlTest1 {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("sqltest1").setMaster("local")
    val context = new SparkContext(conf)
    val sqlContext = new SQLContext(context)
    
    val rdd = context.textFile("d:\\person",1)
    val rdd2 = rdd.map(x=>{val t = x.split(" ");person(t(0).toInt,t(1),t(2).toInt)})
    val rdd3 = rdd.map(x=>{val t = x.split(" ");person(t(0).toInt,t(1),t(2).toInt)})
    //第一種方法創(chuàng  )建dataframe,在這里需要導入隱式轉換
    import sqlContext.implicits._  
    
    val persondf = rdd2.toDF() 
    
    val persondf3 = rdd3.toDF()
    
   
    //這個(gè)方法在2.1.0里面被廢除
    //persondf.registerTempTable("person")
    //使用該函數代替
    persondf.createOrReplaceTempView("person")
    persondf3.createOrReplaceTempView("person2")
    val result = sqlContext.sql("select a.id ,b.name  from person a ,person2 b   where a.id = b.id")
    //打印查詢(xún)的結果
    result.show()
    //或者將結果保存到文件
    //result.write.json("d://personselect")
    val props =  new Properties();
    props.put("user", "root")
    props.put("password", "123456")
 
    result.write.mode("append").jdbc("jdbc:mysql://192.168.6.133:3306/hgs", "person", props)
   //result.write.mode(saveMode)
    context.stop()
  }
}
case class person(id:Int,name:String,age:Int)
object sqlTest3{
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("sqltest3").setMaster("local")
    val context = new SparkContext(conf)
    val sqlContext = new SQLContext(context)
    val persontable = sqlContext.read.format("jdbc").option("url", "jdbc:mysql://192.168.6.133:3306/hgs")
                                  .option("dbtable", "person")
                                  .option("user", "root")
                                  .option("password", "123456").load().createOrReplaceTempView("person")
                
                                  
    sqlContext.sql("select id,concat(name,\"xxx\") from person").show()
    context.stop()
  }
}

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng )、來(lái)自互聯(lián)網(wǎng)轉載和分享為主,文章觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權請聯(lián)系QQ:712375056 進(jìn)行舉報,并提供相關(guān)證據,一經(jīng)查實(shí),將立刻刪除涉嫌侵權內容。

成人免费A级毛片无码网站入口| 亚洲一区精品无码| 色一乱一伦一图一区二区精品| 国产精品天干天干在线观看| 午夜三级A三级三点窝| 在线观看亚洲AV无码每日更新|