.NET框架源码解读之SSCLI的调试支持

阅读源码一个比较快的手段就是在调试器里阅读,这样可以在实际运行SSCLI的过程中,通过堆栈跟踪的方式查看完整的程序执行路径。

当在SSCLI环境里执行一个托管程序的时候,堆栈上通常有托管和非托管代码同时在执行。因此在SSCLI里也支持下面几种调试场景:

  • 调试托管程序:在SSCLI里自带了一个托管调试程序,cordbg.exe。跟调试普通.net程序不同,目前还无法在Visual Studio里调试SSCLI环境下的托管程序,在后面有时间的时候,我们会看一下如何在Visual Studio里添加调试SSCLI托管程序的支持。
  • 调试非托管程序:即调试SSCLI虚拟机本身的非托管代码,可以使用Visual Studio、WinDbg等普通Windows调试工具进行调试。在非Windows平台下,也可以用gdb这些工具进行调试。
  • 托管非托管程序混合调试:可以Visual Studio和Windbg这些Windows调试工具下通过加载sos调试插件来实现混合调试的功能。另外,sscli也提供了sos调试插件的源码。

SSCLI里的符号文件

在SSCLI里,会生成两种符号文件,一种是编译非托管程序生成的.pdb文件,一种是编译托管程序生成的.ildb文件。关于符号文件的作用,请参看我之前的文章:Visual Studio调试之符号文件

Windows调试工具调试都支持.pdb文件,而cordbg.exe可以识别.ildb格式,而sos插件不需要任何符号文件即可调试。

SSCLI提供了工具ildbconv程序可以在.pdb文件和.ildb文件格式之间相互转换,因此如果要在Visual Studio里调试SSCLI里编译的托管程序,可以用这个工具将对应的.ildb文件转换成Visual Studio支持的pdb格式,并在.NET环境下运行托管程序即可调试。ildbconv命令的格式如下:

ildbconv [选项] 符号文件路径

其中ildbconv支持下面这些选项:

  • /toildb:将.pdb文件转换成.ildb格式;
  • /topdb:将.ildb文件转换成.pdb格式。

SSCLI也提供了ildbconv程序的源码,其路径位于:\tools\ildbconv\ildbconv.cpp

时间: 2024-11-08 15:23:59

.NET框架源码解读之SSCLI的调试支持的相关文章

安卓andbase框架源码解读( 一)

常做开发,怎么能不用框架.框架不仅可以加快我们开发人员的开发效率,还能提高程序的可维护性所以花点时间来学习几个比较优秀的框架还是很有必要的,这样可以省去很多我们去写单调重复的代码的时间,专注功能逻辑的实现,快准狠地开发出优秀的产品. 本人更多的时间是在进行安卓开发,这里选取介绍的框架是andbase,优点这里我就不一一介绍了,不好的话我也不会花时间写博客来介绍它,项目地址:https://github.com/zhaoqp2010/andbase,官方网站http://www.amsoft.cn

ntv.js框架源码解读 - 4navigation.js

4navigation.js源代码: ntv.navigation类,处理页面焦点移动和确认.刷新等操作动作.

基于Docker的TensorFlow机器学习框架搭建和实例源码解读

概述:基于Docker的TensorFlow机器学习框架搭建和实例源码解读,TensorFlow作为最火热的机器学习框架之一,Docker是的容器,可以很好的结合起来,为机器学习或者科研人员提供便捷的机器学习开发环境,探索人工智能的奥秘,容器随开随用方便快捷.源码解析TensorFlow容器创建和示例程序运行,为热爱机器学者降低学习难度. 默认机器已经装好了Docker(Docker安装和使用可以看我另一篇博文:Ubuntu16.04安装Docker1.12+开发实例+hello world+w

vue源码解读预热-0

vueJS的源码解读 vue源码总共包含约一万行代码量(包括注释)特别感谢作者Evan You开放的源代码,访问地址为Github 代码整体介绍与函数介绍预览 代码模块分析 代码整体思路 总体的分析 从图片中可以看出的为采用IIFE(Immediately-Invoked Function Expression)立即执行的函数表达式的形式进行的代码的编写 常见的几种插件方式: (function(,){}(,))或(function(,){})(,)或!function(){}()等等,其中必有

jdk1.8.0_45源码解读——HashMap的实现

jdk1.8.0_45源码解读——HashMap的实现 一.HashMap概述 HashMap是基于哈希表的Map接口实现的,此实现提供所有可选的映射操作.存储的是<key,value>对的映射,允许多个null值和一个null键.但此类不保证映射的顺序,特别是它不保证该顺序恒久不变.  除了HashMap是非同步以及允许使用null外,HashMap 类与 Hashtable大致相同. 此实现假定哈希函数将元素适当地分布在各桶之间,可为基本操作(get 和 put)提供稳定的性能.迭代col

15、Spark Streaming源码解读之No Receivers彻底思考

在前几期文章里讲了带Receiver的Spark Streaming 应用的相关源码解读,但是现在开发Spark Streaming的应用越来越多的采用No Receivers(Direct Approach)的方式,No Receiver的方式的优势: 1. 更强的控制自由度 2. 语义一致性 其实No Receivers的方式更符合我们读取数据,操作数据的思路的.因为Spark 本身是一个计算框架,他底层会有数据来源,如果没有Receivers,我们直接操作数据来源,这其实是一种更自然的方式

Apache Beam WordCount编程实战及源码解读

概述:Apache Beam WordCount编程实战及源码解读,并通过intellij IDEA和terminal两种方式调试运行WordCount程序,Apache Beam对大数据的批处理和流处理,提供一套先进的统一的编程模型,并可以运行大数据处理引擎上.完整项目Github源码 负责公司大数据处理相关架构,但是具有多样性,极大的增加了开发成本,急需统一编程处理,Apache Beam,一处编程,处处运行,故将折腾成果分享出来. 1.Apache Beam编程实战–前言,Apache B

精通Spark:Spark内核剖析、源码解读、性能优化和商业案例实战

这是世界上第一个Spark内核高端课程: 1, 该课程在对Spark的13个不同版本源码彻底研究基础之上提炼而成: 2, 课程涵盖Spark所有内核精髓的剖析: 3, 课程中有大量的核心源码解读: 4, 全景展示Spark商业案例下规划.部署.开发.管理技术: 5, 涵盖Spark核心优化技巧 该课程是Spark的高端课程,其前置课程是“18小时内掌握Spark:把云计算大数据速度提高100倍以上!”. 培训对象 1,  系统架构师.系统分析师.高级程序员.资深开发人员: 2, 牵涉到大数据处理

AFNetworking 3.0 源码解读(一)之 AFNetworkReachabilityManager

做ios开发,AFNetworking 这个网络框架肯定都非常熟悉,也许我们平时只使用了它的部分功能,而且我们对它的实现原理并不是很清楚,就好像总是有一团迷雾在眼前一样. 接下来我们就非常详细的来读一读这个框架的代码,我们的目标就是理解了它的思想之后,能够明白我们的请求是如何实现的,我们的代码哪里还需要进行改进,如果能够更进一步,我们能够总结出一套适合大部分应用的网络架构思想. 能够让一些人从中受益. 我们先来看看整个框架的文件系统,我们先不对每个文件的作用进行说明,在整个源码解读最后的一篇中我