keytool 错误 java.io.IOException: incorrect AVA format

给一个APK做签名,选择新建一个key并填写相关信息,但在Finish时,keytool报出了一个错误:
keytool error: java.io.IOException: Incorrect AVA format
这是因为在创建key的时候,organization和organizational unit信息都不能包含 ”,”
删除","可以正常签名。

时间: 2024-12-29 15:47:50

keytool 错误 java.io.IOException: incorrect AVA format的相关文章

keytool 错误: java.io.FileNotFoundException: 拒绝访问

keytool 错误: java.io.FileNotFoundException: 拒绝访问 打开命令行,切换到D:\AndroidStudioProjects\MyApplication\app目录 keytool 在JDK的/bin目录下,比如:/opt/jdk/bin 用以下的命令生成一个证书: keytool -genkey -alias android.key -keyalg RSA -validity 20000 -keystore android.key 老是报如题的错误: 后来

hadoop错误java.io.IOException Failed to replace a bad datanode on the existing pipeline due to no more good datanodes being available to try

错误: java.io.IOException: Failed to replace a bad datanode on the existing pipeline due to no more good datanodes being available to try 原因: 无法写入:我的环境中有3个datanode,备份数量设置的是3.在写操作时,它会在pipeline中写3个机器.默认replace-datanode-on-failure.policy是DEFAULT,如果系统中的dat

重新格式化namenode后,出现java.io.IOException Incompatible clusterIDs

错误: java.io.IOException: Incompatible clusterIDs in /data/dfs/data: namenode clusterID = CID-d1448b9e-da0f-499e-b1d4-78cb18ecdebb; datanode clusterID = CID-ff0faa40-2940-4838-b321-98272eb0dee3 原因: 每次namenode format会重新创建一个namenodeId,而data目录包含了上次format

hadoop错误Could not obtain block blk_XXX_YYY from any node:java.io.IOException:No live nodes contain current block

错误: 10/12/08 20:10:31 INFO hdfs.DFSClient: Could not obtain block blk_XXXXXXXXXXXXXXXXXXXXXX_YYYYYYYY from any node: java.io.IOException: No live nodes contain current block. Will get new block locations from namenode and retry 原因: Datanode 有一个同时处理文件

hadoop错误FATAL org.apache.hadoop.hdfs.server.namenode.NameNode Exception in namenode join java.io.IOException There appears to be a gap in the edit log

错误: FATAL org.apache.hadoop.hdfs.server.namenode.NameNode Exception in namenode join java.io.IOException There appears to be a gap in the edit log 原因: namenode元数据被破坏,需要修复 解决:     恢复一下namenode hadoop namenode –recover 一路选择c,一般就OK了 如果,您认为阅读这篇博客让您有些收获,不

hive执行query语句时提示错误:org.apache.hadoop.ipc.RemoteException: java.io.IOException: java.io.IOException:

hive> select product_id, track_time from trackinfo limit 5; Total MapReduce jobs = 1 Launching Job 1 out of 1 Number of reduce tasks is set to 0 since there's no reduce operator org.apache.hadoop.ipc.RemoteException: java.io.IOException: java.io.IOEx

hadoop错误Ignoring exception during close for [email protected] java.io.IOException Spill failed

1.错误    Ignoring exception during close for [email protected] java.io.IOException: Spill failed2.原因     本地磁盘空间不足非hdfs (我是在myeclipse中调试程序,本地tmp目录占满)3.解决     清理.增加空间 如果,您认为阅读这篇博客让您有些收获,不妨点击一下右下角的[推荐]. 如果,您希望更容易地发现我的新博客,不妨点击一下左下角的[关注我]. 如果,您对我的博客所讲述的内容有

【IE下载文件——后台报ClientAbortException:java.io.IOException错误】

一.场景 页面上提供下载Excel文件的功能,用于下载报表中的数据. 分别在chrome,IE中进行测试.在chrome中正常,在IE中后台报错. 二.错误信息 org.apache.catalina.connector.ClientAbortException: java.io.IOException    at org.apache.catalina.connector.OutputBuffer.realWriteBytes(OutputBuffer.java:407)    at org.

解决Jmeter插件ERROR: java.io.IOException: Agent is unreachable via TCP的错误

在使用JMeter PerfMon Metrics collector插件收集收据的时候,收集不到数据同时报如下错误: 1 ERROR: java.io.IOException: Agent is unreachable via TCP 或者 1 ERROR: java.io.IOException: Agent is unreachable via UDP 这是用于默认的端口4444被占用,更换其他端口即可:例如将指定TCP为3401,UDP指定为3401 1 ./startAgent.sh