以下是使用Scala语言的Spark代码实现:
```scala
// 导入SparkContext和SparkConf类
import org.apache.spark.{SparkConf, SparkContext}
// 创建SparkConf对象,设置应用程序名称
val conf = new SparkConf().setAppName("Examination2019")
// 创建SparkContext对象
val sc = new SparkContext(conf)
// 读取examination2019.csv文件并创建RDD
val lines = sc.textFile("examination2019.csv")
// 查找各地区本科批次的分数线
val result = lines.filter(line => {
val fields = line.split(",")
fields(2) == "本科" // 批次为本科
}).map(line => {
val fields = line.split(",")
(fields(0), fields(3).toInt) // 返回地区和分数线
})
// 将结果输出
result.foreach(println)
// 关闭SparkContext对象
sc.stop()
```
解析:
1. 首先导入SparkConf和SparkContext类。
2. 创建SparkConf对象,并设置应用程序名称。
3. 创建SparkContext对象。
4. 使用`textFile()`方法读取examination2019.csv文件,并创建RDD。
5. 使用`filter()`方法过滤出批次为本科的数据。
6. 使用`map()`方法将每条数据转换成`(地区, 分数线)`的键值对形式。
7. 最后使用`foreach()`方法将结果输出。
8. 关闭SparkContext对象。