PyCharm+Eclipse共用Anaconda的数据科学环境

1.安装anaconda2

  安装好之后,本地python环境就采用anaconda自带的python2.7的环境。

2.安装py4j

  在本地ctrl+r打开控制台后,直接使用pip安装py4j,因为anaconda默认是安装了pip的,当然也可以使用conda安装。

  安装命令:pip install py4j

  如果不安装py4j可能出现的问题?

答:因为Spark的Python版本的API依赖于py4j,如果不安装运行程序会抛出如下错误。

3.配置环境变量

  配置PyCharm的环境变量主要配置两个变量一个是SPARK_HOME,另外一个是PYTHONPATH。

(1).先打开Run Configurations

(创建一个项目,项目或python文件的左上角有该选项)

  

(2).编辑Environment variables

或者按下面的方式展开

菜单:File-->Settings (图来源于互联网~这里我用的是python2)

(3).在Environment variables下增加spark和python的环境

  增加SPARK_HOME目录与PYTHONPATH目录。

  - SPARK_HOME:Spark安装目录

  - PYTHONPATH:Spark安装目录下的Python目录

4.复制pyspark的包

编写Spark程序,复制pyspark的包,增加代码显示功能

为了让我们在PyCharm编写Spark程序时有代码提示和补全功能,需要将Spark的pyspark导入到Python中。在Spark的程序中有Python的包,叫做pyspark

pyspark包

Python导入第三方的包也很容易,只需要把相应的模块导入到指定的文件夹就可以了。
windows中将pyspark拷贝到Python的site-packages目录下(这里使用的是anaconda)

5.测试代码

import sys
from operator import add

from pyspark import SparkContext
logFile = "D:\\BigData\\Workspace\\PycharmProjects\\MachineLearning1\\word.txt"sc = SparkContext("local", "PythonWordCount")logData = sc.textFile(logFile).cache()

numAs = logData.filter(lambda s: ‘a‘ in s).count()numBs = logData.filter(lambda s: ‘b‘ in s).count()

print("Lines with a: %i, lines with b: %i" % (numAs, numBs))

				
时间: 2024-08-27 16:33:58

PyCharm+Eclipse共用Anaconda的数据科学环境的相关文章

(数据科学学习手札81)conda+jupyter玩转数据科学环境搭建

本文示例yaml文件已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 我们在使用Python进行数据分析时,很多时候都在解决环境搭建的问题,不同版本.依赖包等问题经常给数据科学工作流的搭建和运转带来各种各样令人头疼的问题,本文就将基于笔者自己摸索出的经验,以geopandas环境的搭建为例,教你使用conda+jupyter轻松搞定环境的搭建.管理与拓展. 图1 2 虚拟环境的搭建与使用 2.1 使用con

正确地学习数据科学中的Python,小白学习Python

大多数有抱负的数据科学家是通过学习为开发人员开设的编程课程开始认识 python 的,他们也开始解决类似 leetcode 网站上的 python 编程难题.他们认为在开始使用 python 分析数据之前,必须熟悉编程概念. 资深数据分析师 Manu Jeevan 认为,这是一个巨大的错误,因为数据科学家使用 python 来对数据进行检索.清洗.可视化和构建模型,而不是开发软件应用程序.实际上,为了完成这些任务,你必须将大部分时间集中在学习 python 中的模块和库上. 请按照下面这个步骤来

数据科学中R VS Python:获胜者是...

数据科学中R VS Python:获胜者是- 在"最佳"数据科学工具的比赛中,R和Python都有自己的优缺点.对二者的选择取决于使用背景,学习花费和其它经常使用工具的须要 Martijn Theuwissen发表于DataCamp. 在DataCamp,学生经常问我们他们日常数据分析任务使用R或Python.尽管我们主要是提供交互式R教程,我们总是回答这个问题取决于他们所面对的数据分析挑战的类型. R和Python都是流行的统计编程语言.R的功能由统计学家开发(想想R强大的数据可视化

数据保护平台如何为新一代应用,人工智能和数据科学提供动力

我最坚信的信念之一是,通过有效地构建,管理和发展其数据供应链来学习如何充分利用其数据的公司将获得持久的竞争优势.现在拥有如此多的数据,公司必须将其数据视为其最有价值的资产之一.这些数据供应链必须像其他任何系统或分发网络一样平稳运行. 然而,数据供应链提出了独特的挑战.要使数据供应链无缝运行非常困难,因为它必须从许多来源收集数据,将其提炼成有用的形式,然后能够根据需要将特定的子集交付给业务.数据不是万能的,因此您的数据供应链必须像数据多样化一样灵活. 为了构建最佳的数据供应链,公司应识别其库存中已

python3 数据科学基础

第一章 1.Anaconda(最著名的python数据科学平台) 下面小伙伴们咱们来初初识下Anaconda吧 What is Anaconda???? 回答: (1).科学计算的平台 (2).有很多方便的包可供咱们使用 (3).跨平台:Mac \Linux\Windows (4).最重要的是:开源免费还有社区供小伙伴们交流 2.安装Anaconda 下载地址:https://mirror.tuna.tsinghua.edu.cn/help/anaconda/(咱们到清华的国内镜像下载快些)[g

Python3数据科学入门与实战

第1章 实验环境的搭建   1-1 导学视频   1-2 Anaconda和Jupyter notebook介绍   1-3 Anaconda在Mac上的安装演示   1-4 Anaconda在windows上安装演示   1-5 Anaconda在Linux上的安装演示   1-6 Jupyter-notebook的使用演示第2章 Numpy入门   2-1 数据科学领域5个常用Python库   2-2 数学基础回顾之矩阵运算   2-3 Array的创建及访问   2-4 数组与矩阵运算 

Data Science(什么是数据科学)

科学上网时看到的有关于Data Science的理解,感觉挺好的,就翻一下. Data science is about understanding systems, whether they be natural systems such as climate, or man-made systems like the economy. (数据科学可以称之为理解系统,无论这个系统是自然系统,例如天气系统,或者人造的生态环境系统). Scientists have been conducting

命令行中的数据科学

目录 前言 XIII 第1章 简介 1 1.1 概述 1 1.2 数据科学就是OSEMN 2 1.2.1 数据获取 2 1.2.2 数据清洗 2 1.2.3 数据探索 3 1.2.4 数据建模 3 1.2.5 数据解释 3 1.3 插入的几章 4 1.4 什么是命令行 4 1.5 为什么用命令行做数据科学工作 6 1.5.1 命令行的灵活性 6 1.5.2 命令行可增强 6 1.5.3 命令行可扩展 7 1.5.4 命令行可扩充 7 1.5.5 命令行无处不在 7 1.6 一个现实用例 8 1.

敏捷数据科学:用Hadoop创建数据分析应用

敏捷数据科学:用Hadoop创建数据分析应用(数据分析最佳实践入门敏捷大数据首作分步骤|全流程演示思路.工具与方法) [美]Russell Jurney(拉塞尔·朱尔尼) 著   冯文中 朱洪波 译 ISBN 978-7-121-23619-8 2014年7月出版 定价:49.00元 184页 16开 编辑推荐 对大数据的挖掘需要投入大量的人力和时间.怎么才能确保构建的是一个正确的模型?通过这本实践指南,你可以学到一套灵活的工具和方法论,在Hadoop上构建数据分析应用. 使用诸如Python.