csdnPHP网站源码分享(扒php网页源码)

大家好,感谢邀请,今天来为大家分享一下csdnPHP网站源码分享的问题,以及和扒php网页源码的一些困惑,大家要是还不太明白的话,也没有关系,因为接下来将为大家分享,希望可以帮助到大家,解决大家的问题,下面就开始吧!

作者|敏叔V587

责编|徐威龙

封图|CSDN下载于视觉中国

Spark3.0已经发布有一阵子了,官方发布了预览版,带来了一大波更新,对于我们程序员来说,首先当然是代码拉过来,打个包,跑起来!!

源码地址

Spark源码是托管在github上面的,源码地址:

Spark官方源码https://github.com/apache/spark

不过clone下了还是老费劲,不得琢磨琢磨微软收购github之后这个中国的网速问题不知道他们怎么看,我在gitee上面直接也fork一份源码,再进行clone。

gitee上Spark源码:

https://gitee.com/CodeGarden2019/spark

编译和打包

作为一个过(被)来(虐)人,编译之前需要做点工作,后续就顺利很多。

直接编译会出现下面的错误:

……

exec:curl–silent–show-error-Lhttps://downloads.lightbend.com/zinc/0.3.15/zinc-0.3.15.tgz

curl:(77)errorsettingcertificateverifylocations:

……

exec:curl–silent–show-error-Lhttps://downloads.lightbend.com/scala/2.12.10/scala-2.12.10.tgz

……

/home/hdfs/Spark3.0/build/mvn:line130:cd:/home/hdfs/Spark3.0/build/scala-2.12.10/bin/../lib:Nosuchfileordirectory

/home/hdfs/Spark3.0/build/mvn:line131:cd:/home/hdfs/Spark3.0/build/scala-2.12.10/bin/../lib:Nosuchfileordirectory

exec:curl–silent–show-error-Lhttps://archive.apache.org/dist/maven/maven-3/3.6.3/binaries/apache-maven-3.6.3-bin.tar.gz

……

/home/hdfs/Spark3.0/build/mvn:line148:/home/hdfs/Spark3.0/build/zinc-0.3.15/bin/zinc:Nosuchfileordirectory

……

这个时候一定要淡定,这里的信息其实是编译的时候需要依赖apache-maven-3.6.3-bin.tar.gz、scala-2.12.10.tgz、zinc-0.3.15.tgz,如果不存在则会自动下载,但是下载其实是失败的,我们选择手动下载这几个包,放在build里面解压好。

接下来我们执行:

/dev/make-distribution.sh–namespark-3.0–tgz-Phadoop-2.6-Phive-Phive-thriftserver-Pyarn-DskipTests

脚本是不报错了,但是一直卡着

我们找到脚本,129行开始的地方:

VERSION=$(“$MVN”help:evaluate-Dexpression=project.version$@\\

|grep-v”INFO”\\

|grep-v”WARNING”\\

|tail-n1)

SCALA_VERSION=$(“$MVN”help:evaluate-Dexpression=scala.binary.version$@\\

|grep-v”INFO”\\

|grep-v”WARNING”\\

|tail-n1)

SPARK_HADOOP_VERSION=$(“$MVN”help:evaluate-Dexpression=hadoop.version$@\\

|grep-v”INFO”\\

|grep-v”WARNING”\\

|tail-n1)

SPARK_HIVE=$(“$MVN”help:evaluate-Dexpression=project.activeProfiles-plsql/hive$@\\

|grep-v”INFO”\\

|grep-v”WARNING”\\

|fgrep–count”<id>hive</id>”;\\

becauseweuse”set-opipefail”

echo-n)

这个地方是获获取各个组件的版本,其实版本从maven的pom.xml中可以看到,我直接写成固定的就行,改成如下:

VERSION=3.1.0-SNAPSHOT

SCALA_VERSION=2.12

SPARK_HADOOP_VERSION=2.7.4

SPARK_HIVE=3.2

另外,我们为了执行下载的时候速度快些,我们把maven的仓库地址换掉:

<mirror>

<id>alimaven</id>

<name>aliyunmaven</name>

<url>http://maven.aliyun.com/nexus/content/groups/public/</url>

<mirrorOf>central</mirrorOf>

</mirror>

再次编译,可以动了:

接下来就是等待了,编译完成之后会就可以看到我们的包了

一些编译过程中的小问题

FullGC的问题

编译这个工作需要多试几次,编译的时候我发现还有本身maven慢的问题

[hdfs@daas-service-01~]$jps-ml

78904org.codehaus.plexus.classworlds.launcher.Launcher-DzincPort=3030cleanpackage-DskipTests-Phadoop-2.6-Phive-Phive-thriftserver-Pyarn-DskipTests

[hdfs@daas-service-01~]$jstat-gcutil789041000

S0S1EOMCCSYGCYGCTFGCFGCTGCT

71.260.0021.629.5391.0595.86804.02172.0646.085

71.260.0034.029.5391.0595.86804.02172.0646.085

71.260.0043.849.5391.0595.86804.02172.0646.085

71.260.0055.639.5391.0595.86804.02172.0646.085

71.260.0073.309.5391.0595.86804.02172.0646.085

71.260.0087.289.5391.0595.86804.02172.0646.085

0.0077.583.999.5391.0695.69814.09072.0646.154

0.0077.5811.909.5391.0695.69814.09072.0646.154

针对这种现象,我们适度调整JVM的参数:

exportMAVEN_OPTS=”-Xms12g-Xmx12g-XX:+UseG1GC”

[INFO]Compiling10Scalasourcesto/home/hdfs/Spark3.0/mllib-local/target/scala-2.12/test-classes…

JavaHotSpot(TM)64-BitServerVMwarning:CodeCacheisfull.Compilerhasbeendisabled.

JavaHotSpot(TM)64-BitServerVMwarning:Tryincreasingthecodecachesizeusing-XX:ReservedCodeCacheSize=

CodeCache:size=245760Kbused=243977Kbmax_used=243996Kbfree=1782Kb

bounds[0x00002aae10000000,0x00002aae1f000000,0x00002aae1f000000]

total_blobs=59407nmethods=58763adapters=539

compilation:disabled(notenoughcontiguousfreespaceleft)

这个其实就是代码缓冲区满了,按照提示我们可以适度加大这个数值,几个参数一起配合就是:

exportMAVEN_OPTS=”-Xms12g-Xmx12g-XX:+UseG1GC-XX:ReservedCodeCacheSize=2g”

感兴趣的朋友可以跟着试试,有什么问题,可以在评论区留言告诉我哦~

注:本文转自「CSDN博客」

原文链接:

https://blog.csdn.net/zhuxuemin1991/article/details/105161234

END,本文到此结束,如果可以帮助到大家,还望关注本站哦!

Published by

风君子

独自遨游何稽首 揭天掀地慰生平