Brainfuck解析器(Python)

global cs
global ip

global ss
#global sp

global ds
global bp

global tab
global out

cs=‘++++++++++[>+++++++>++++++++++>+++>+<<<<-]>++.>+.+++++++..+++.>++.<<+++++++++++++++.>.+++.------.--------.>+.>.‘
ip = 0

ss = []
#sp = 0

ds = []
bp = 0

tab = 0
out = []

def tab_():
    i = tab
    stab = ‘‘
    while i > 0:
        stab += ‘\t‘
        i -= 1
    return stab

def push(var):
    global ss
    ss.append(var)

def pop():
    global ss
    return ss.pop()

def op_inc_val():
    global ip
    count = 0
    while True:
        op = cs[ip]
        ip = ip + 1
        if op == ‘+‘:
            count = count + 1
        else:
            break
    l = len(ds)
    if l <= bp:
        ds.append(0)
    old = ds[bp]
    old += count
    ds[bp] = old
    print tab_()+‘ds[%d] += %d                  (%d)‘%(bp, count, old)

def op_dec_val():
    global ip
    count = 0
    while True:
        op = cs[ip]
        ip = ip + 1
        if op == ‘-‘:
            count = count + 1
        else:
            break
    old = ds[bp]
    old -= count
    ds[bp] = old
    print tab_()+‘ds[%d] -= %d                  (%d)‘%(bp, count, old)

def op_inc_dp():
    global bp
    bp = bp + 1

def op_dec_dp():
    global bp
    bp = bp - 1

def op_jmp_fwd():
    global tab
    global ip
    print tab_()+‘while ds[%d]=%d:‘%(bp, ds[bp])
    tab=tab + 1
    if ds[bp] != 0:
        curip = ip - 1
        push(curip)
    else:
        c = 1;
        while c > 0:
            op = cs[ip]
            if op == ‘[‘:
                c += 1
            elif op == ‘]‘:
                c -= 1
            ip += 1

def op_jmp_bck():
    global tab
    global ip
    tab = tab - 1
    if ds[bp] != 0:
        ip = pop()

def op_out():
    print tab_()+‘putchar(ds[%d])                  (%d)‘%(bp, ds[bp])
    out.append(ds[bp])

def op_in():
    print tab_()+‘getchar‘

end = len(cs)
while ip < end:
    op = cs[ip]
    ip = ip + 1
    if op == ‘+‘:
        ip = ip - 1
        op_inc_val()
        ip = ip - 1
    elif op == ‘-‘:
        ip = ip - 1
        op_dec_val()
        ip = ip - 1
    elif op == ‘>‘:
        op_inc_dp()
    elif op == ‘<‘:
        op_dec_dp()
    elif op == ‘[‘:
        op_jmp_fwd()
    elif op == ‘]‘:
        op_jmp_bck()
    elif op == ‘.‘:
        op_out()
    elif op == ‘,‘:
        op_in()
    else:
        print ‘invalid opcode‘
        break

print out
str = ‘‘
for c in out:
    str += ‘%c‘%(c)
print str
时间: 2024-10-06 02:26:14

Brainfuck解析器(Python)的相关文章

[Python]HTML/XML解析器Beautiful Soup

[简介] Beautiful Soup是一个可以从HTML或XML文件中提取数据的Python库.即HTML/XMLX的解析器. 它可以很好的处理不规范标记并生成剖析树(parse tree). 它提供简单又常用的导航(navigating),搜索以及修改剖析树的操作.它可以大大节省你的编程时间. [安装] 下载地址:点击打开链接 Linux平台安装: 如果你用的是新版的Debain或ubuntu,那么可以通过系统的软件包管理来安装: $ apt-get install Python-bs4 B

python标准库configparser配置解析器

1 >>> from configparser import ConfigParser, ExtendedInterpolation 2 >>> parser = ConfigParser(interpolation=ExtendedInterpolation()) 3 >>> # the default BasicInterpolation could be used as well 4 >>> parser.read_string

python爬虫主要就是五个模块:爬虫启动入口模块,URL管理器存放已经爬虫的URL和待爬虫URL列表,html下载器,html解析器,html输出器 同时可以掌握到urllib2的使用、bs4(BeautifulSoup)页面解析器、re正则表达式、urlparse、python基础知识回顾(set集合操作)等相关内容。

本次python爬虫百步百科,里面详细分析了爬虫的步骤,对每一步代码都有详细的注释说明,可通过本案例掌握python爬虫的特点: 1.爬虫调度入口(crawler_main.py) # coding:utf-8from com.wenhy.crawler_baidu_baike import url_manager, html_downloader, html_parser, html_outputer print "爬虫百度百科调度入口" # 创建爬虫类class SpiderMai

Python解析器源码加密系列之(二):一次使用标准c的FILE*访问内存块的尝试

摘要:由于近期打算修改Python解释器以实现pyc文件的加密/解密,出于保密的要求,解密之后的数据只能放在内存中,不能写入到文件中.但是后续的解析pyc文件的代码又只能接受FILE*作为入参,所以就提出了一种把通过FILE*来访问内存的需求,下文是针对这个需求的几个方面的尝试及其结论. 以下尝试的前提是:Win7 + VS2010. 在vc中,FILE其实就是_iobuf,定义如下: struct _iobuf { char *_ptr; //文件输入的下一个位置 int _cnt; //当前

Python 文本解析器

Python 文本解析器 一.课程介绍 本课程讲解一个使用 Python 来解析纯文本生成一个 HTML 页面的小程序. 二.相关技术 Python:一种面向对象.解释型计算机程序设计语言,用它可以做 Web 开发.图形处理.文本处理和数学处理等等. HTML:超文本标记语言,主要用来实现网页. 三.项目截图 纯文本文件: Welcome to ShiYanLou ShiYanLou is the first experiment with IT as the core of online ed

Python爬虫(十四)_BeautifulSoup4 解析器

CSS选择器:BeautifulSoup4 和lxml一样,Beautiful Soup也是一个HTML/XML的解析器,主要的功能也是如何解析和提取HTML/XML数据. lxml只会局部遍历,而Beautiful Soup是基于HTML DOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多,所以性能要低于lxml. BeautifulSoup用来解析HTML比较简单,API非常人性化,支持CSS选择器.Python标准库中的HTML解析器,也支持lxml的XML解析器.

Python之父新发文,将替换现有解析器

花下猫语: Guido van Rossum 是 Python 的创造者,虽然他现在放弃了"终身仁慈独裁者"的职位,但却成为了指导委员会的五位成员之一,其一举一动依然备受瞩目.近日,他开通了 Medium 账号,并发表了第一篇文章,透露出要替换 Python 的核心部件(解析器)的想法.这篇文章分析了当前的 pgen 解析器的诸多缺陷,并介绍了 PEG 解析器的优点,令人振奋.这项改造工作仍在进行中,Guido 说他还会写更多相关的文章,我们就拭目以待吧. 本文原创并首发于公众号[Py

Python 之父再发文:构建一个 PEG 解析器

花下猫语: Python 之父在 Medium 上开了博客,现在写了两篇文章,本文是第二篇的译文.前一篇的译文 在此 ,宣布了将要用 PEG 解析器来替换当前的 pgen 解析器. 本文主要介绍了构建一个 PEG 解析器的大体思路,并介绍了一些基本的语法规则.根据 Python 之父的描述,这个 PEG 解析器还是一个很笼统的实验品,而他也预告了,将会在以后的系列文章中丰富这个解析器. 阅读这篇文章就像在读一篇教程,虽然很难看懂,但是感觉很奇妙:我们竟然可以见证 Python 之父如何考虑问题.

Python 之父的解析器系列之三:生成一个 PEG 解析器

原题 | Generating a PEG Parser 作者 | Guido van Rossum(Python之父) 译者 | 豌豆花下猫("Python猫"公众号作者) 声明 | 本翻译是出于交流学习的目的,基于 CC BY-NC-SA 4.0 授权协议.为便于阅读,内容略有改动. 首发地址:https://mp.weixin.qq.com/s/ojSq6u9FC0xlBDncuoKczw 我已经在本系列第二篇文章中简述了解析器的基础结构,并展示了一个简单的手写解析器,根据承诺,