从文件读取内容,删除一个数据,把删除后的数据重新写入到文件

demo.php :

<!--从文件读取内容,删除一个数据,把删除后的数据重新写入到文件-->
<?php
    $aa = file_get_contents(‘picinfo.db‘);
    $bb = rtrim($aa,‘@‘);
    //var_dump($bb);exit;
    $array = explode(‘@@‘,$bb);
    //var_dump($array);exit;
    
    /****测试以下代码,打开var_dump($cc);exit;并依此打开unset($array[0]);***/
    //unset($array[0]);
    //unset($array[1]);
    // unset($array[2]);
    $cc = implode(‘@@‘,$array);
    if(!empty($array)){
        $cc = $cc.‘@@‘;
    }
    //var_dump($cc);exit;
       /**********************************************************************/
    file_put_contents(‘picinfo.db‘,$cc);

?>

picinfo.db:(3条数据【数组形式】   a  --b --  c)

a##aa##14146325652097.jpg##2014-10-30##17.jpg##image/jpeg##[email protected]@b##bb##14146352942070.jpg##2014-10-30##s_14146325652097.jpg##image/jpeg##[email protected]@c##cc##14146325652097.jpg##2014-10-30##17.jpg##image/jpeg##[email protected]@

时间: 2024-10-22 03:34:55

从文件读取内容,删除一个数据,把删除后的数据重新写入到文件的相关文章

动态数组,数组初始化,数组内存释放,向数组中添加一个元素,向数组中添加多个元素,数组打印,顺序查找,二分查找,查找数组并返回地址,冒泡排序,改变数组中某个元素的值,删除一个数值,删除所有,查找含有

 1定义接口: Num.h #ifndef_NUM_H_ #define_NUM_H_ #include<stdio.h> #include<stdlib.h> /************************************************************************/ /*数组的结构体类型                                                    */ /*******************

从文件读取内容

// // main.m // 从文件中读取内容 #import <Foundation/Foundation.h> int main(int argc, const char * argv[]) { @autoreleasepool { NSString * path = @"/Users/ms/Desktop/hello"; NSError * error; NSString * str =[NSString stringWithContentsOfFile:path

Android Socket 发送与接收数据问题: 发送后的数据接收到总是粘包

先说明一下粘包的概念: 发送时是两个单独的包.两次发送,但接收时两个包连在一起被一次接收到.在以前 WinCE 下 Socket 编程,确实也要处理粘包的问题,没想到在 Android 下也遇到了.首先想从发送端能否避免这样的问题,例如: (1) 调用强制刷数据完成发送的函数:(2) 设置发送超时.1 先试了调用 flush() 函数,但运行后现象依旧2 设置发送超时是 Windows 平台的做法,但在 Android 平台下是否有类似的设置呢?查看 Socket 类的实现代码:java.net

Mysql(三) ------数据迁移备份(针对数据量很大的情况)

新跳槽了一家公司,上来就是数据库调优和数据迁移.调优那部分后面再补上来.公司目前用的是5.1的数据库,很老了,而且随着业务的发展需要做读写分离和主从复制.想把所有的数据都挪到新库上去.但这个库大概有60G的数据.主要思路: 1.创建用户,并授权 2.搭建主从,做到主从同步,数据目前先保持一致,在切换主从同步切换ipMysql5.1已有数据量了,为保证数据的一致性.故需要锁库,等数据导入后再解锁 3.需要注意从库和主库的引擎,字符集show variables like 'character_se

取两个DataTable的交集,删除重复数据

? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 /// <summary>         /// 取两个DataTable的交集,删除重复数据         /// </summary>         /// <param name="sourceDataTable">源DataTable</param>         

JAVA之File类-删除一个有内容的文件夹

package ioTest.io3; /* * 删除有内容的文件夹:从最里面一直向外删除.建议千万不要删除硬盘上面有用的文件夹哦 * 方法思路 * 循环+递归 */ import java.io.File; public class RemoveDir { public static void main(String[] args) { // TODO Auto-generated method stub File file=new File("F:\\removeDirTest")

Sql Server 存储过程删除一个表里(除ID外)完全重复的数据记录

1 CREATE PROCEDURE P_DeleteSameData 2 ( 3 @table nvarchar(50),--表名 4 @columns nvarchar(200)--列名,格式形如:Id,Name,Age 5 ) 6 AS 7 BEGIN 8 BEGIN TRY 9 BEGIN TRANSACTION 10 DECLARE @SQL NVARCHAR(1000),@tempTable NVARCHAR(20); 11 SET @SQL = ''; 12 IF OBJECT_I

用ajax对数据进行删除和查看

删除和查看详情操作的共同语句:就是怎么显示表? 1.在主体中写表的开头行,想要显示的内容,并且加载数据也要显示的地方也建张表 <table width="100%" border="1" cellpadding="0" cellspacing="0"> <tr> //开头行显示的内容 <td>代号</td> <td>名称</td> <td>价格

数据去重2---高性能重复数据检测与删除技术研究一些零碎的知识

高性能重复数据检测与删除技术研究 这里介绍一些零碎的有关数据重删的东西,以前总结的,放上可以和大家交流交流. 1 数据量的爆炸增长对现有存储系统的容量.吞吐性能.可扩展性.可靠性.安全性. 可维护性和能耗管理等各个方面都带来新的挑战, 消除冗余信息优化存储空间效率成为 缓解存储容量瓶颈的重要手段,现有消除信息冗余的主要技术包括数据压缩[8]和数据去 重. 2 数据压缩是通过编码方法用更少的位( bit)表达原始数据的过程,根据编码 过程是否损失原始信息量,又可将数据压缩细分为无损压缩和有损压缩.