有时编辑超过 100GB 的大文件。(我的电脑物理内存是 128GB 并且使用 nvme ssd)
小变化 。vs 快速保存?当我对文件做了一些小改动时,比如删除文件的第一行。有没有更有效的方法来完成这个功能?200gb 文件需要半小时才能保存。
有时 emeditor 会检测到 json 或 csv 错误行。将这些行标记为书本容易吗?所以很容易提取或删除这些行。
可以在替换中使用序列号自动填充吗?
编辑超过 100M 行时。据我所知,正常功能应该切换到 csv 模式并插入一个新列。然后用序列号填充。这些步骤也很耗时。
这些步骤可以通过替换功能来完成吗?下面是一个例子。
例子:
{“流派”:“戏剧”,“产品”:“冰淇淋 - 超级三明治”,“标题”:“白色闪电”} {“流派”:“戏剧|战争”,“产品”:“覆盆子 - 冰雪奇缘” ","Title":"Leopard, The (Gattopardo, Il)"} {"Genres":"犯罪|戏剧|黑色电影","Product":"Cookie Dough - Chunky","Title":"Limits of控制,“} {“流派”:“戏剧|神秘”,“产品”:“豆瓣菜”,“标题”:“死者的回声(Skumtimmen)”} {“流派”:“戏剧|惊悚片”,产品”:“孜然 - 整个”,“标题”:“好人”}
需要转换成
{"id":1,"Genres":"Drama","Product":"Ice Cream - Super Sandwich","Title":"White Lightnin'"} {"id":2,"Genres":"Drama |War","Product":"Raspberries - Frozen","Title":"Leopard, The (Gattopardo, Il)"} {"id":3,"Genres":"犯罪|戏剧|黑色电影", "Product":"Cookie Dough - Chunky","Title":"Limits of Control, The"} {"id":4,"Genres":"Drama|Mystery","Product":"Watercress","Title ":"Echoes from the Dead (Skumtimmen)"} {"id":5,"Genres":"Drama|Thriller","Product":"Cumin - Whole","Title":"Good People"}
Mockaroo 创建的数据