: Convert dynamic websites into static and change all links to relative
NOTE: If you are doing translations, you only need to translate the .ini files.
zh-cn
简体中文
Kenny Huo
kennyhuo#gmail.com
http://www.BlueEyes.com.tw
蓝眼科技
欢迎参观蓝眼科技网站!
2017-02-27 15:43:51
A1 Sitemap Generator
8.0.0
可分析的网址最高数目限制为{dynCount}在"{dynEdition}"版本.
只有标准文字, RSS feed, HTML template与XML sitemap files被支援在"{dynEdition}"版本.
标题
描述
计数{dynCount}
At lines
With anchors
With "alt" attribute
With follow
权重{dynCount}
合并 {dynCount}
{dynEngine} #相关
{dynEngine} #已搜寻
{dynEngine} #分值
正在处理资料(可能需要较长时间)
连结
来源
直接
未知
连结自{dynCount}个页面
连结到{dynCount}个页面
被{dynCount}个页面使用
使用 {dynCount} 网址
找到{dynCount}
描述
回应代码
类
特殊
引用自
重指向自
找到{dynCount}
片语
网站
搜寻引擎
权重
计数
计数
无停用词
自动侦测语言
页面
网站
内建
使用者自建
内容中的加权 % 关键字密度匹配
Google网页反向链接
Google计算的反向链接到网址
页面源中的标题
HTML错误
W3C HTML错误
搜索引擎中的标题
搜索引擎结果页中的标题
搜索引擎中的说明
Description in search engine result page
Search results in search engine
Google indexed
Google indexed URLs count
有些搜寻引擎设有专门的反排位检测策略和措施。<NL><NL>请记住,可以编辑和添加新的搜寻引擎以进行检测。<NL>同时也可以设置搜寻方式,比如两次请求间的闲置时间等。<NL>本程式在请求时间之间强制设置了一定的闲置时间,以避免搜寻引擎"超载"。<NL><NL>所有搜寻引擎均同时检测。意即"空闲"时间对整体速度影响不大。<NL><NL>是否立即开始排位检测?
有些搜寻引擎设有专门的反检测策略和措施。<NL><NL>请记住,可以编辑和添加新的搜寻引擎以进行检测。<NL>同时也可以设置搜寻方式,比如两次请求间的闲置时间等。<NL>本程式在请求时间之间强制设置了一定的闲置时间,以避免搜寻引擎"超载"。<NL><NL>是否立即在所选搜寻引擎上分析领先排位?
某些服务与搜寻引擎 have policies and measures against non-manual usage.<NL><NL>This program enforces some idle time between requests to try prevent "overloading" services and search engines.<NL><NL>Run 分析 now?
有些服务设有专门的策略和措施,用以防止非人工使用。<NL><NL>请记住,可以编辑和添加新服务以进行检测。<NL>同时也可以设置使用方式,比如两次请求间的闲置时间等。<NL>本程式在请求时间之间强制设置了一定的闲置时间,以避免服务"超载"。<NL><NL>所有服务均同时检测。意即"空闲"时间对整体速度影响不大。<NL><NL>是否立即开检索建议?
您已选择在扫描过程中使用"外部工具"。<NL><NL>请注意,有些此类工具可能设有专门的策略和措施,以防止非人工使用。<NL>本程式强制设置了一定的使用限制(如连接数等),以防止"超载"。<NL><NL>是否继续?
You have selected to integrate with an external online service during website scan:"{dynOnlineService}"<NL><NL>Please be aware that some of these may have policies and measures against non-manual usage.<NL>This program enforces some safety measures (例如 time between requests) to minimize chance of "overloading".<NL><NL>Keep setting?
Some services and search engines have policies and measures against non-manual usage.<NL><NL>This program enforces some safety measures (e.g. time between requests) to minimize chance of "overloading".<NL><NL>The process can take some time before it finishes.<NL><NL>Continue?
本档的命名方式不符合规则。<NL><NL>正常命名模式为"{dynDirFilePathName}"。<NL><NL>是否使用本档?
您需要选择或向"活动位址"中输入一个网址。
您需要选择或向"活动关键字"中输入一个关键字。
您需要向"待查位址"中输入一个或多个网址。
您需要向"待检测短语"中输入一个或多个关键字。
您需要先进行网站扫描。<NL><NL>储存和载入专案时,同时包括与网站扫描相关的以及通过网站扫描得到的所有资料。
The list of imported URLs are mostly all different and therefore placed in the "{tabExternal}" tab.<NL><NL>Do you want to enable the following options:<NL>- {optionRecrawl}<NL>- {optionExternal}<NL><NL>These are useful if you are planning on running a scan to check all the imported URLs.
您需要先以合适的设定值crawl网站.<NL><NL>In "{dynScanWebsite}" - "{dynQuickPresets}" select "{dynQuickSelet}".<NL><NL>然后开始新网站扫描.
You can usually get much better results if you crawl the website with appropriate settings first.<NL><NL>In "{dynScanWebsite}" - "{dynQuickPresets}" select "{dynQuickSelet}".<NL><NL>Then start a new website scan.<NL><NL><NL>Note: Also make sure you are not blocking media from crawlers, e.g. through a "http://example.com/robots.txt" file on server.
存取档案问题发生在位置"{dynDirFilePathName}". 网站地图没有建立.<NL><NL>为解决此问题, 尝试再次建立网站地图.
网站地图输出档路径"{dynDirFilePathName}"中的目录不存在。<NL><NL>是否立即创建目录?
无法创建"{dynDirFilePathName}"。<NL><NL>原因可能是无写入许可权或许可权不够。
路径 of app data files has to be local to app when in debug mode and saving sitemap templates
All template names starting with "a1sg-" are reserved for default templates. Please choose another name for your sitemap template. Then try save again!
Root directory 路径 "{dynDirFilePathName}" needs to end with a slash. 使用 entered path?<NL><NL>Click "Yes" to 新增 a trailing slash to the root directory 路径 entered.<NL>Click "No" to have the 路径 added as a "start scan path" and afterwards cutoff to nearest directory.
所选"根路径"似乎不在"根路径别名"清单中。<NL><NL>是否删除旧"别名"值?
你已启用选项:<NL>"{dynOptionPath1}"<NL><NL>However, with this enabled, you also need to fill valid 路径 into:<NL>"{dynOptionPath2}"<NL><NL>Disable option:<NL>"{dynOptionPath1}"<NL>?
You have enabled option:<NL>"{dynOptionPath1}"<NL><NL>However, with this enabled, you also need to fill valid 路径 into:<NL>"{dynOptionPath2}"<NL><NL>Disable option:<NL>"{dynOptionPath1}"<NL>?
你已启用选项:<NL>"{dynOptionPath1}"<NL><NL>However, with this enabled, you also need to fill valid 路径 into:<NL>"{dynOptionPath2}" or enable W3C validation<NL><NL>Disable option:<NL>"{dynOptionPath1}"<NL>?
新增文字"{dynOptionWord}"到目录档案"{dynOptionPath}"?
{dynCount} characters. Text percentage: {dynPercent}% of characters.
已分析/已找到
个网址
网站地图
内部
外部
提示: 控制 the search index size (quality) in the "Analyze text content" tab, section "site 分析"
Edit Cell
&OK
&取消
新专案
打开专案...
打开专案
Ctrl+O
储存专案
储存专案
Ctrl+S
专案另存为...
更新档
更新档
印表机设置...
列印
列印
Ctrl+P
退出
将所选资料汇出为档...
将所选控制中的资料汇出为档
从文件中导入网址...
从档中导入网站资料
将文件中的URL导入"外部"列表...
导入一个URL列表,其中程序假定大多数URL来自不同的域,因此都属于"external"
剪下
剪下所选档案
Ctrl+X
复制
复制所选档案
Ctrl+C
贴上
从剪贴簿贴上档案
Ctrl+V
删除
删除所选档案
Ctrl+Del
全选
选择活动控制中的全部档案
Ctrl+A
复原
取消上次更改
Ctrl+Z
搜寻...
找文字
Ctrl+F
找下一个
找下一个
F3
替换文字...
替换文字
Ctrl+R
切换自动换行
新增项
在所选项后新增项
Ctrl+Alt+R
插入行
在所选行之前插入行
Ctrl+Alt+I
新增子项
在所选项中新增子项
Ctrl+Alt+C
删除项
删除所选项
Ctrl+Alt+E
新增选择好的路径(only) to "limit-include-to" filters
新增选择好的路径 + sub-paths to "limit-include-to" filters
新增选择好的路径 plus sub-paths to "limit-to" in both "output" and "analysis" filters
新增选择好的路径 (only) to "exclude" filters
Ctrl+Alt+F
新增选择好的路径 + sub-paths to "exclude" filters
Ctrl+Alt+F
新增选择好的路径 plus sub-paths to "exclude" in "analysis" filters
上移项目
将所选项上移
Ctrl+Alt+U
下移项目
将所选项下移
Ctrl+Alt+D
排序
排序
展开所有
收缩所有
上一页
查看上一页
Shift+Ctrl+Z
下一页
查看下一页
Shift+Ctrl+X
更新
本操作将清除缓存并更新内容,编辑原始档案时除外。
F5
浏览检视器
将"上一页、下一页、更新"与嵌入控制(如Internet Explorer视窗)相关联。
Ctrl+Alt+N
已找到专案
硬碟路径
回应代码
回应代码描述
检测到URL内容状态标志
抓取引擎状态标志
回应时间
下载时间
档案大小
文字计数
Text content percentage
MIME类型
文件字元集
语言编码
已修改档
Click-to navigation count
连结自
Linked to by anchors
依照清单连结到
Used by alt text
依照清单来源到
依照清单重新导向到
到内部的连结
到外部的连结
Redirects to path
目标回应代码
算出的重要性分数
调整后的重要性分数
HTML验证错误
CSS验证错误
验证错误拼写
Indexed in search engines
Page 内容 searches
页面标题
页面描述
页面关键字
Page H1
Page H2
标题 characters count
标题像素 width
描述 characters count
描述像素 width
Page 内容 keywords (weighted density)
Page 内容 duplicates (visual view)
Internet Explorer浏览器
Opera浏览器
FireFox浏览器
ALI_View_SideItemsMode
在以"树形"和"清单"形式显示找到的网站项之间进行切换
资料过滤
Tip: It is often better to view filtered data using a "flat" view instead of "tree" view
简单模式
在"简单"和"进阶"模式间切换
Standard quick filter behavior
重复的标题
只显示 URLs with duplicate 标题 when applying filter
重复的描述
只显示 URLs with duplicate META 描述 when applying filter
重复的关键字
只显示 URLs with duplicate META keywords when applying filter
只显示 URLs with duplicate H1 tags
只显示 URLs with duplicate H1 标题 when applying filter
只显示 URLs with duplicate H2 tags
只显示 URLs with duplicate H2 标题 when applying filter
只显示 URLs with filter-text found in "response code" columns
Only apply "quick filter" on response code related columns instead of all
只显示 URLs with filter-text found in "URL state flags" column
Only apply "quick filter" on "state flag" column
只显示 URLs with "file size" < filter-text-as-number
只显示 URLs with "file size" > filter-text-as-number
只显示 URL pages with "word count" < filter-text-as-number
只显示 URL pages with "word count" > filter-text-as-number
只显示 URLs with "标题 length" < filter-text-as-number
只显示 URLs with "标题 length" > filter-text-as-number
只显示 URLs with "标题像素 count" > filter-text-as-number
只显示 URLs with "描述 characters count" < filter-text-as-number
只显示 URLs with "描述 characters count" > filter-text-as-number
只显示 URLs with "描述像素 count" > filter-text-as-number
只显示 URLs that are images
只显示 URLs that are pages
只显示 URLs where "linked-by" or "used-by" miss anchors / "alt"
显示 URLs as stored in data
显示 URLs using real characters
显示 URLs percentage encoded %
Allow big URL lists in data columns
An URL can have many pages that link to making the user interface hard to use. This option is mostly used when exporting data.
List URLs with "404 - not found" response
List of URLs that redirect
List URLs that point to other using canonical
List pages with duplicate titles
List pages with duplicate H1s
List pages with duplicate H2s
重复描述的网页清单
List pages excluded by noindex
List pages excluded by robots.txt
显示 only pages with titles over 70 characters - and relevant data columns
显示 only pages with titles over 510像素 (Google) - and relevant data columns
显示 only page URLs - and SEO relevant data columns
显示 only 影像 where some "linked-by" or "used-by" miss anchors / "alt"
格式化和删除空白符
删除HTML注释
高亮显示文档句法
生成重要性资料
生成汇总数据(延伸)
拼音检查文件
F7
新增文字到 "xxx--custom-user.dic" (global)
Ctrl+Alt+G
新增文字到 "xxx--custom-user-project.dic" (project)
Ctrl+Alt+P
网站扫描完成后打开资料
计算汇总数据(延伸)
总是打开已创建的网站地图
快速存储分析资料
建议选择,除非您希望查看/编辑XML档
包括网站分析资料
如果您以后希望载入专案并查看网站搜寻过程中检索的资料,请使用此项
将分析资料限为"网站地图"
如果您只对"网站地图"中的档感兴趣,请使用此项
"减少"连结
如果同一页面存在多个连结至同一网址的连结,则每个连结的"link juice"(连结果汁)会减少
"无自我"连结
如果页面含有自我连结,则这些连结将被忽略
标题字体...
描述字体...
重置为预设值
汇出带页头的CSV数据
汇出带网址的CSV页头
Wrap cells with line breaks in ""
Wrap line breaks in "" instead of replacing them with whitespace
以unicode with BOM输出
以UTF-8 (unicode)输出
以UCS-2 / UTF-16 LE (unicode)输出
以ANSI (local codepage)输出
读我档案...
查看读我档案
程式日志
查看程式日志
线上求助
观看线上求助
F1
离线求助
观看提供的离线求助
提示...
查看提示
更新...
检查更新
立即购买...
买程式(打开线上购买网页)
输入注册码...
购买后您会收到使用说明进行软体解锁
发送回馈意见
造访官方网站
连结与分享
连结与分享软体在社群网站,像是Facebook, Google+与Twitter
求助论坛
关于...
A1 Sitemap Generator
网站地图生成工具首页
A1 Website Analyzer
网站分析工具首页
A1 Keyword Research
关键字搜寻工具首页
A1 Website Download
网站下载工具首页
结构
样式
恢复预设设置
Google video sitemap
Google video sitemap (website has videos hosted externally)
Google image sitemap
Google image sitemap (website has 影像 hosted externally)
Google mobile sitemap
Google code sitemap
WordPress CMS/blog website
Joomla CMS website (with crawler throttling)
Magento CMS website
phpBB论坛网站
SMF论坛网站
VBulletin论坛网站
XenForo论坛网站
SharePoint网站
Wiki网站
清除档案类型在 "输出过滤器" (下载)
新增影像档
新增视讯档
新增声音档
新增压缩档
新增执行档
新增文件档
Add common "safety" filters for use with login
恢复预设值
HTML范本网站地图:HTML
HTML范本网站地图:CSV
XML网站地图:XML网站地图协议(Google网站地图)
XML Sitemap : Google News Sitemaps
恢复预设设置
example.com
改变视窗尺寸
改变视窗样式
数据报告(列和过滤器)
资料网址编码
数据资料列
数据资料过滤器选项
核心数据
网址参照
重要的ranks
验证结果
提取的内容
全部启用
全部停用
全部启用
全部停用
全部启用
全部停用
全部启用
全部停用
全部启用
全部停用
全部启用
全部停用
&档案
&编辑
&表格
&查看
&工具
&选项
&帮助
重启专案
程式选项
专案选项
网站扫描后
网站地图建立后
储存与载入
网址重要性演算法
字型像素计算
资料输入/输出
Scraper选项
扫描网站
分析网站
重新搜寻关键字
搜寻引擎创建者
线上工具
建立网站地图
建立robots.txt
查看档案
上传档案
Ping网站地图
一般选项
查看网站
专案资讯
tsDevCtrls
tsDevCtrls2
tsDevCtrls3
重新搜寻
若希望"重新搜寻"网站页面,请启用此项(使用现有网站扫描资料)
重新检索 (仅列出)
Enable when you want to "重新检索" only already found website pages (uses current website scan data if any)
恢复
若希望"恢复"网站搜寻,请启用此项(使用现有网站扫描资料)
恢复(修正错误)
针对错误修正 "恢复" 网站爬行 (使用现有网站扫描资料)
开始扫描
停止扫描
快速预设...
查看各种配置示例(可加快新项目的创建)
路径
扫描进度
下载选项
爬网选项
爬网引擎
爬网标识
网管过滤
分析过滤
列表过滤
资料收集
预设路径类型
如果爬网遇到未知连结/引用"情境",则会恢复预设设置
HTTP(网际网路和本地主机)
HTTP使用WinInet引擎与设定(Internet Explorer)
HTTP using "WinInet/IE" - uses Internet Explorer for settings and AJAX content (experimental)
本地磁片/UNC/区网
自动侦测
自动检测基于根路径类型
HTTP代理设置
多数情况下,可以忽略代理设置。
DNS名/IP地址
埠
帐号
密码
Number of 1/1000 seconds "crawl-delay" between active connections
"连接"超时前等待毫秒数(千分之一秒)
"读取"超时前等待毫秒数(千分之一秒)
失败与新连接尝试之间的毫秒数(千分之一秒)
放弃前尝试连接至某个资源的次数
页面请求预设为GET(而非HEAD之后为GET)
这两种选择可能存在性能差异,具体视网站和网页伺服器而定
预设为持续连接
持续连接适用于不欢迎多次连接/断开的网页伺服器
待发送的Accept-Language请求页头(若不填,则不发送)
Additional HTTP request headers to send (if left empty, none is sent)
储存重定向、来自和指向所有页面的连结、统计等资料
用于查看档的连结和重定向源。该资料同时用于完善各种计算
储存额外的细节(例如 which line in URL 内容 a link is placed)
用于观看丰富的细节
储存找到的外部连结
有时可用于查看找到的"外部"连结
执行所有页面的关键字密度分析
储存所有页面的标题
储存所有页面的"meta"描述
针对所有网页储存"关键字"描述
针对所有网页储存H1与H2
针对所有连结储存锚文本
储存 "alt" attribute of all "uses" (例如 "img" HTML tag)
使用 "fallback" tags for 标题 and 描述 if necessary
Examples of "fallback" data include "og:description" meta tag
网站目录根路径(网站扫描的唯一必选项)
许多情况下,这是需要填写的唯一栏位
连结中的会话和使用者变数
有时会话变数可能存在于网址中:"demo.php;sid=xxx"或"demo.php?PHPSESSID=xxx"。检测时区分大小写
目录索引档案名
有些网站使用重复网址而不重定向,如http://example.com/dir/和"http://example.com/dir/index.html"
内部档路径区分大小写
若知道主机运行的是Windows作业系统,请不要选中此项
爬网错误页(如回应代码404)
该选项适用于一些罕见情况,主要为内容管理系统等
验证外部连结是否存在
如果存在大量无效连结,验证外部连结可能使网站扫描进程变慢
允许重定向
启用此项后,也可查看网站扫描过程中发生的所有重定向
针对重定向考虑 0 秒meta更新
如果网页包含对不同网址的0秒元刷新,则应将其视为一种重定向
允许cookies
在资料传送中允许GZip/压缩
最大同时连接 (数据传输)
更多的同时连接不总是快. 你和伺服器之间的连接负载和速度是重要
最大同时连接数
增加同时连接数不一定能加快速度。重要的是您与伺服器之间的连接负荷和速度
高级引擎设定
跟踪并储存扩展网站资料(对于大型网站,请取消选择)
储存扩展网站资料会增加记忆体用量,并可能损害爬网性能
使用外部工具
拼字检查与字典档
"编辑"按钮仅启用"xxx--custom-user.dic"档
启用拼字检查(在"一般选项 | 工具路径"选择字典档)
记住要在"一般选项"-"工具路径"选择字典档
寻找网页中字串与代码
所有进入值必须有"name-id=regular expression"格式
捕获和存储匹配的正则表达式
运行自定义搜索之前,请剥离HTML和其他代码
检查网址是否在所选搜索引擎中排名(减缓网站扫描)
在搜索引擎中搜索页面标题。Special values: 0=not-checked (e.g. images), 250=max-value, 251=not-found, 255=error
启用检查哪些网址已编入索引
使用者代理ID
有些网站可能对不同的爬网/使用者代理返回不同内容。
主要的
在极少情况下应使用随机使用者代理ID。
次要的(通常不使用)
在爬行前以浏览器登入(WinInet HTTP crawler engine)
支援 "基本认证". 记住允许cookies.
在爬行前开启内建浏览器并登入
登录(使用者/密码)
支持"基本验证"和"POST"两种表单。请允许cookies。
网站登入(post形式)
每次请求时发送HTTP页头(基本验证)
用户
密码
更多"key=value"参数(post)
登录路径(post)
爬网模式和选项
为网站扫描创建日志档(会降低网站搜寻速度)
储存在程式的使用者资料目录"logs - misc"中
储存 non-HTTP references in "external" (例如 "ftp:" and "news:")
储存所有页面的回应页头档案
储存 response 内容 text for 所有网页
用W3C验证器验证HTML(若需启用,请选择大于0的数位)
设置本工具使用的最大同时连接数
用W3C验证器验证CSS(若需启用,请选择大于0的数位)
设置本工具使用的最大同时连接数
搜寻所有连结标签类型
扩展搜寻以包括:<img src="">、<script src="">、<link href="">等
搜寻所有<form>和相关标签
扩展搜寻以包括:<form>、<input>、<select>等
总是扫描含有已连结网址的目录
本设置可确保始终扫描目录,即使目录本身没有直接连结
如果Web服务器阻止使用的搜寻器用户代理ID,请调整搜寻器设置
某些网络服务器会自动阻止未知网站抓取工具
修复带有明确定义的预设埠号的"内部"网址
例如:如果扫描的是"http://example.com/",网站爬网引擎同时会将"http://example.com:80/"作为内部网址
根据网站根路径,修复带有"www."的错误"内部"网址
例如:如果扫描的是"http://example.com/",网站爬网引擎同时会将"http://www.example.com/"作为内部网址
修正"internal" URLs with protocol incorrect compared to website root
范例:假如扫描"http://example.com/", the website crawler engine will also accept "https://www.example.com/" as internal
修正"internal" URLs if website root URL redirects to different address
范例:假如扫描"http://example.com/", the website crawler engine will also accept "https://www.example.com/" as internal
Fix URL "mime" types when server is returning obvious wrong data
Example: If server returns mime type "text/html" for URLs like "example.jpg" and "example.png"
如果网址重定向到自身,请修复网址重定向响应代码
确保网址在进一步处理之前获得解码百分比
If you want to keep the original URLs, even if they 使用 non-standard percentage encoding, uncheck both encode and decode options
确保网址"path"部分采用百分比编码
确保网址"query"部分采用百分比编码
尝试搜寻连结 in "FlashVars" (extended)
Handle "FlashVars" URLs relative to page *or* Flash player URL location
尝试搜寻Javascript中的连结(扩展模式)
选中此项,程式将尝试搜寻和猜测所有脚本段和函数中的连结
尝试寻找Flash中的连结(见"一般选项"-"工具路径")
这将会试着在Flash档案中寻找与猜测连结
Try search inside PDF (see "General options" - "Tool paths")
This will attempt to find and guess links inside PDF files
尝试在连结中寻找视讯内容
Can sometimes be useful for sites if the scan configuration presets for video 内容 are not enough
在网站扫描停止过后应用"网管"和"列表"过滤
去掉被"robots.txt"、"noindex"和程式配置"输出过滤"中阻止的网址
使用特殊 "response" codes for when page URLs 使用 canonical or similar
为了方便, "special" codes can be assigned if URLs 使用 例如 canonical, meta refresh and other 相似的 states
下载"robots.txt"
总是下载"robots.txt"以标识为爬网/机器人
遵循"robots.txt"档"disallow"指令
本档通常被网管用于"引导"爬网/机器人
Obey "robots.txt" file "disallow" directives specificly for *this* program
This file is often used by 网站管理者 to "guide" specific crawlers/robots
遵循"robots.txt"档"crawl-delay"指令
遵循"meta"标签"robots" noindex
遵循"meta"标签"robots" nofollow
遵循"a"标签"rel" nofollow
遵循"link"标签"rel" canonical
Search for and 新增 found "robots.txt" file to scan results
Search for and 新增 found "sitemap protocol" files to scan results
忽略"动态回圈"(dynamic circular)生成的内部连结
忽略诸如"http://example.com/?paramA=&amp;paramA"之类的连结(比如利用网页自身资料创建新网页的动态页面)
内部连结的最大字元数
截去内部连结中的会话变数
将非重定向索引档案名网址作为"重复"
Consider non-redirected with-slash and non-slash URLs as "duplicates"
The "real" URL of the two is determined by which is linked the most in the website
截去内部连结中的"?"(GET参数)
删除连结中的"?",从而确定是否将"page.htm?A=1"和"page.htm?A=2"当作"page.htm"处理
截去内部连结中的"#"(页内地址)
确定是否将"page.htm#A"和"page.htm#B"当作同一页面
截去外部连结中的"#"(页内位址)
确定是否将"page.htm#A"和"page.htm#B"当作同一页面
当内部连结使用"\"而非"/"时予以纠正(仅适用于HTTP扫描模式)
例如,将所有连结中的"folder\sub"纠正为"folder/sub"(仅适用于HTTP扫描模式)
当内部连结使用"//"而非"/"时予以纠正
比如,将所有连结中的"folder//sub"纠正为"folder/sub"
将<iframe>标签当作连结
总是将<iframe>当作"source"。但有时当作"link"也非常有用
根路径别名
用于涵盖http/https/www变体以及映射/指向相同内容的位址
Limit output of URLs to those with "MIME content type" in list
如果没有返回MIME类型,也将执行列表
将内部网址列表限制为清单中"相对路径"中的网址
将清单限制为允许清单中的路径(使用相对路径,如"dir/")。若不填,将使用网站根路径
Limit output of internal URLs to those below depth level
Depth level: "-1" = no limits. "0" = root domain/directory. "1", "2", "3" ... = all paths below chosen directory depth level.
Website directory path depth level
排除与"相对路径/字串/ regex"清单中专案相匹配的内部网址
档案字串匹配:"mypics"。相对于根的路径:":mypics/",仅子路径:":mypics/*",regex搜寻:"::mypics[0-9]*/"
在网站根路径之外,从以下路径开始扫描
在网站未交叉连结或者"root"目录不同于"index.html"的情况下,可使用此选项
Import a list of URLs from a text file to use as additional start search paths
Import a list of URLs from Google "site:example.com" query
Import a list of URLs from Bing "site:example.com" query
Import a list of URLs from Ask "site:example.com" query
针对在"output filters"选项中的一般设定
内部网址的限制输出到回应代码
将搜到的档储存至以下磁片目录路径
配置和测试要从页面中删除的内容
其他选项
档案与路径设定
Scrape test actions (configure below first)
Extract data into CSV file at path
Extract data into SQL file at path (MySQL format)
Execute command line after scrape. [MySQL: "c:\mysql\mysql.exe" -u root dbname < "c:\extraced.sql"]
Define regular expressions (how to extract)
Test raw input (to see how regex works)
Insert HTML source from URL
使用正则表达式同步输出选项
定义输出数据格式 (CSV)
扫描资料
扫描状态:
已用时间:
内部"网站地图"网址
已找到列表网址:
已减少列表网址:
已分析内容:
已分析引用:
外部网址
已找到列表网址:
在爬行引擎等待的工作
"Init" 找到的连结 (唯一时检查) :
"Analyze" 找到的网址 (或考虑它) :
在爬行引擎完成的工作
"Init" 找到的连结 (唯一时检查) :
"Analyze" 找到的网址 (或考虑它) :
将内部网址分析限制为列表中含有以下"MIME 内容 type"的网址
如果未返回MIME类型,也会进行分析
将内部网址分析限制为列表中含有"档副档名"的网址
总是会分析目录
区分大小写的比较
决定是否所有过滤均区分大小写(比如,".extension"是否与".EXTENSION"相匹配)
将内部网址列表限制为列表中含有"档副档名"的网址
不填,包括所有。始终包括目录
区分大小写的比较
决定是否所有过滤均区分大小写(比如,".extension"是否与".EXTENSION"相匹配)
Always accept URLs with no file extensions (例如 directories)
将内部网址分析限制为清单中"相对路径"中的网址
将分析限制为允许清单中的路径。请使用相对路径,如"dir/"和"dir/file.htm"。若不填,将使用网站根路径
将内部网址分析限制为深度层次以下的网址
深度层次:"-1"=无限制。"0"=根域/目录。"1", "2", "3" ...=所选深度层次以下的所有路径。
网站目录路径深度层次
Limit 分析 of 内容 of URLs to equal/below byte size
使用 this to avoid parsing page URLs hundreds of megabytes large (0 = no limit on size)
只分析内容 in page URLs up/equal to byte size
"分析过滤"中各选项的一般设置
不对与"相对路径/字串/ regex"清单中专案相匹配的内部网址进行分析
档案字串匹配:"mypics"。相对于根的路径:":mypics/",仅子路径:":mypics/*",regex搜寻:"::mypics[0-9]*/"
网管爬网过滤
网站"爬网陷阱"检测
网站连结结构
路径
路径部分
下载路径
硬碟路径 (only shown for paths that had to be converted)
项目
找到的专案
回应代码
HTTP回应代码
R.Desc
HTTP回应代码描述
网址旗标
URL and 内容 state "flags" detected for URL
Crawler Flags
Crawler engine state "flags" for URL
回应时间
回应时间(毫秒)
下载时间
下载时间(毫秒)
大小
文件大小(KB)
文字计数
文字计数
Text content %
How much of the page content is from text
MIME
MIME内容类别型
字元集
字元集和编码
语言
语言与文化编码
修改
通过HTTP页头或meta标签返回的最后修改日期/时间
Click.Nav.Count
Clicks it takes from website root to reach page (i.e. navigation lengh count)
Linked.Count
Incoming links count found within website
Linked.Anchors
Incoming anchor text links from within website
Used.Alt
来自网站内的使用的传入替代文本
Linked.L
Incoming links list from within the website
Sourced.L
Incoming uses list from within the website
Redirected.L
Incoming redirects list from within the website
内部连结
页面上的内部连结
外部连结
页面上的出站外部连结
重定向路径
Redirects or points to other 路径 (HTTP, canonical etc.)
Ref.R.Code
目标网址的回应码(重新导向或类似)
重要性
档分数(对整个网站的所有连结进行加权计算得出)
调整重要性
调整后的重要性分数(0-10)
HTML错误
HTML验证错误
CSS错误
CSS验证错误
拼写错误
拼写错误
SE.Indexed
URL indexed 在搜寻引擎
搜索内容
网页搜索内容
标题
网页标题
降幂
网页描述
关键字
网页关键字
网页.H1
网页H1内容
网页.H2
网页H2内容
标题文字
标题文字计数
标题像素
标题像素宽度
描述文字
描述文字计数
描述像素
描述像素宽度
网页内容关键字
top 关键字 (使用加权关键字密度分析)
相似网页内容
Shows most important "elements" visually. Sorting uses all available data to score and group pages with 相似的 content.
您可以在此输入位址并用"更新"按钮(也可按一下"回车"键)
不填,使用预设设置。否则,请在此输入另一个使用者代理ID(有些网站可能会返回不同的内容)
Type or select "browser" user agent
Leave empty to use default. Otherwise enter another user agent ID here (some websites may return different content)
Type or select phrase / keyword
键入或选择关键字或短语
数据资料过滤器选项
Choose between different common reporting presets that shows/hides data columns and filters data
Control if URLs are shown using a "list view" or "tree view" and if URLs are percentage encoded "%"
Configure which data columns are visible
Special filtering modes that can be applied through the "quick data filter" button
网站地图
外部
核心数据
外部资料
查看文件
查看原始档案
W3C验证HTML
W3C验证CSS
Tidy验证
CSE验证
连结数[内部]
连结数[外部]
连结自
使用次数[内部]
使用次数[外部]
使用来源
重定向自
目录摘要
回应页头
标题
储存
锁住
When "save" also "lock" across scans when using "重新检索"
回应代码
测试
测试: HEAD
调整后的重要性分数
对进站连结进行加权处理并转换成基于对数的0-10量表
读取
锁定
When "save" also "lock" across scans when using "重新检索"
爬网状态标记
储存
已下载内容
需要分析
分析已开始
分析完成
内容分析完毕
引用分析完毕
资讯请求完成 ("head")
完全请求完成 ("get")
检测到"robots.txt"过滤
将"robots.txt"过滤与"分析" + "列表"过滤之各进行对比
检测到"meta robots noindex"
检测到"meta robots nofollow"
检测为 meta/header "robots noarchive"
检测为 meta/header "robots nosnippet"
检测到"link robots canonical"
Detected URL with AJAX "!#"
Detected page as AJAX fragment source
Detected page as AJAX fragment destination
检测到"do not list"过滤
包括"列表"过滤
检测到"do not analyze"过滤
包括"分析"过滤
检测到"目录索引档"
检测到"meta refresh redirect"
检测为 multimedia/video
检测为multimedia/video-image
检测为multimedia/media-thumb
检测为 as file/robots.txt
检测为 as file/sitemaps-protocol
Google PageRank
读取
预计更改频率
基于"重要性分数"和一些HTTP页头的计算
读取
内容的MIME类型
字集
语言 / 本地化
最后修改
在本地档中,检测"最后修改的档",在HTTP中检测"最后修改的"伺服器回应页头
测试
储存
下级地址
If you want to create a folder, end the name with a slash "/"
储存
部分位址
完全地址
完整网址 (as URL percentage encoded)
完整网址 (as URL percentage decoded)
储存
重新导向至
|如果档在本地磁片中,您可以使用功能表"档 – 更新档"储存更改
无页面需要验证
无页面需要验证
选择一个页面或短语以启动内置的浏览器
PDF to HTML conversion and parser
Click "bookmark" button. Download and extract files to disk, e.g. "c:\example\utility\tool.exe". Use this path as value.
Flash转换与分析成HTML(例如Adobe "swf2html")
点选"bookmark"按键.下载与解开档案到硬碟,例如"c:\example\utility\tool.exe". 使用 this 路径 as value.
下载OpenSSL for "https" support with "Indy" HTTP engine. Extract files into:
点选"bookmark"按键. Check you legally can 使用 OpenSSL. 下载 and extract to program directory path. Restart program.
TIDY 执行路径 (for HTML validation)
CSE HTML Validator *command line* 执行路径 (for HTML/CSS validation)
Look for "cmdlineprocessor.exe" in your CSE installation directory
Enable OpenSSL for Indy HTTP communcation wth "https://" URLs
Is OpenSSL cryptography (algorithms, patents, importing etc.) legal in your jurisdiction?
Google(资料中心和选项)
网站爬网未使用。仅在需要时用于其他地方
决定用于检索资料的主机,如http://www.google.com/(如有多个,有时将取检索到资料的平均值)
启动PageRank检测功能
停用词过滤
相应的值显示相对重要性。0 表示未从中提取档案。
标题档案<title></title>
页头档案<hx></hx>
页头<h1>权重最大。如果"正常档案"为1且"页头档案"为3:则H1=1 + 6/6 * (3-1), H6=1 + 1/6 * (3-1)
锚点档案<a></a>
正常档案
图像替换档案
<img alt=""> with the alternative text placed inside the pair of quotes
标签属性"标题"
<img title=""> with the title text placed inside the pair of quotes
Meta描述
Meta关键字
网址中的字
网页分析: Result ranges
End phrase markers
Removed from content
Page analysis: Result ranges
Min words in phrases
Max words in phrases
Max results per count-type
Max results for each phrase kind (例如 1-word type, 2-word type etc.)
Site 分析: Result ranges
Min words in phrases
Max words in phrases
Max results per count-type
Max results for each phrase kind (例如 1-word type, 2-word type etc.)
<#32>, (逗号)
在所有关键字之间插入一个逗号
<#32>\s (空格)
在所有关键字之间插入一个空格
<#32>\n (新行)
在所有关键字之间插入一个新行
分割并显示含有指定词数的短语。"*"显示含有1至5个词的所有短语。
将关键字清单的字元数限制为固定值。"*"=全部。"#"=计算字元数且允许编辑。
以固定字元数限制档案大小。"#"=计算字元数且允许编辑。
在此输入档案,供检测关键字密度使用(未选择页面/网址时使用)
片语
计数0
计数%
权重0
权重%
合并 *
合并 %
锁定分析结果
按下后,当"活动位址"更改时,关键字页面将不再自动更新
提取关键字并分析密度
原始档案输入
关键字清单输出
工具
元素中的档案权重
Analyze active address
Analyze raw text input
Special: Uses site scan data
Remember that you may have to enable certan options in "scan website - data collection" for data to be available
Sum scores for selected pages
If you for the site scan enabled "data collection - perform keyword analysis", you can sum and view scores of the selected pages
Text weight in elements
选择希望使用的(含有搜寻引擎检索明细)档(只能选一个)
选择希望使用的(含有定位引擎检索明细)档
选择希望使用的(含有建议引擎检索明细)档
输入一个或多个网站位址。<SelectedSite> 和<SelectedPage>自动新增"活动位址."
输入希望在所选网站中进行定位检测的短语。<SelectedPhrase>自动新增"活动关键字短语".
输入来自列出的"短语/词"。
用停用词新增或编辑档
浏览至所选地址
专案将显示在"快速"选项卡中
用"线上工具"配置新增或编辑档
写入或选择一个位址
页面[关键字]
分析网址清单
位置[分析]
位置[检测]
位置[历史]
关键字[激增]
关键字[建议]
合并关键字清单。将每个关键字短语分行写出。用空白行分开所有关键字清单
再输入一个短语。用下面的工具快速增加关键字清单
分析
分析搜寻结果
停止分析
停止分析
显示资讯
Have "pressed" to show hints and warnings before fetching results
URLs to check
输入你要分析的网站网址 (一行一个)
从文字档载入预设值
储存预设值至文字档
工具
分析搜寻结果
分析搜寻结果
停止分析
停止分析
显示资讯
已"按下",以在读取结果前显示提示和警告
Save to history
Save results to position check history data (used for graphs etc.)
片语检查
针对选取的网站,输入你要检查的片语. <选择的片语> 自动增加 "Active 关键字 phrase".
从文字档载入预设值
储存预设值到文字档
工具
引擎和深度检测
顶部位置
停止检测
停止位置检测
位置检测
开始位置检测
储存至历史
将结果储存至位置检测历史资料(用于作图等)
显示资讯
已"按下",以在读取结果前显示提示和警告
工具
待搜寻的地址
待检测的短语
搜寻引擎
将预设储存至文字档
从文字档载入预设
将预设储存至文字档
从文字档载入预设
将预设储存至文字档
从文字档载入预设
乘以预设延迟
新增网址路径至结果
合并至输入
将关键字清单(清单用空行分开)合并至输出
Spintax to input
Spin syntax (spintax) 内容 for 使用 in various article/内容 submission tools
Diff to input
Example: "a, b" diff "b, c" diff "c, d" results in "a, d" as "a" and "d" both only occur once
清除tumbler
合并关键字清单
Spintax关键字清单
Diff keyword lists
新增至输入
替换输入
清除输入
新增至输出
替换输出
清除输出
Input to output tools
Output tools
变换单词位置
输入至输出:包括"tools power" (而非"power tools")一类的词排列
缺少空格
输入至输出:包括"powertools" (而非"power tools")一类的输入错误
缺少字母
输入至输出:包括"someting" (缺少"h")一类的输入错误
字母位置错误
输入至输出:包括"somehting" ("h"和"t")一类的输入错误
整理
在输出中:删除多余空格
无重复
在输出中:避免在同一短语中连续重复单词(如"deluxe deluxe tools")
无重复
在输出中:删除重复的短语(如出现两个"power tools")
No permutations
In output: Remove permutated duplicate phrases (e.g. "power tools" and "tools power")
No whitespaces
In output: Remove all spaces, e.g. to fix domain name lists: "word1 word2 . com" = "word1word2.com"
建议相关
用输入建议相关的短语
取消建议
显示资讯
已"按下",以在读取结果前显示提示和警告
Add to output
Replace output
Clear input
Add to input
Replace input
Clear output
过滤
以字元数/词数为根据接受短语
过滤
接受只含有过滤档案中的字元的短语。
清除
移除没有出现在文字中的片语
前置
输入至输出:复制和新增所有短语,并将以上档案插入开头
后置
输入至输出:复制和新增所有短语,并将以上档案新增至末尾
" "
Input to output: Cover " " ... phrase match in Google Adwords
[ ]
Input to output: Cover [ ] ... exact match in Google Adwords
+
Input to output: Cover + ... modified broad match in Google Adwords
工具
输入
输出
分析
Reset data
关键字清单
快速范例
合并选项
输入
输出
图形
工具
起止日期
搜寻引擎
Keyword phrase
网站
显示资料并应用过滤
检索与过滤条件相匹配的短语的所有资料(如未选择短语,下拉式功能表将读取所有可用资料)
自动更新资料
包括自该日期起的资料
包括截至该日期的资料
选择搜寻引擎
选择网站
设置是否显示。选中=有资料时显示。绿色=有可用资料。红色=活动短语无对应资料。
Same as the other, but switches all items instead
Set whether to show. 勾选 = 有可用资料时显示. 绿色 = has available data. 红色 = has no data for active phrase.
Same as the other, but switches all items instead
更改图形比例
在不同量表间切换(如正常和对数量表)
在图形中显示图例
在不同模式间切换(如显示和隐藏图例)
在图形中显示标记
在不同模式间切换(如显示和隐藏标记)
重设资料
现在建立
生成所选类型的网站地图(如谷歌XML网站地图)
生成所有
生成支持的所有类型的网站地图
快速预设...
查看各种配置示例(可加快新项目的创建)
网站地图档路径
网址选项
文档选项
XML网站地图选项
XML网站地图扩展
HTML 样板代码与选项
Options
Code
待生成的网站地图档案类型
决定要生成的网站地图的类型
XML网站地图档输出路径(谷歌创建的XML网站地图协议)
Image XML 网站地图档输出路径
Video XML 网站地图档输出路径
Mobile XML 网站地图档输出路径
News XML 网站地图档输出路径
Code XML 网站地图档输出路径
RSS网站地图档输出路径
ROR网站地图档输出路径
Google Base 网站地图档输出路径
档案网站地图档输出路径(每行一个网址)
范本网站地图档输出路径(通常为HTML或自订格式)
ASP.net Web.sitemap档输出路径(用于.Net导航控制)
连结专案描述
首选<title></title>
首选原始路径
首选美化路径
动检测基于根路径类型
美化路径
将分隔符号转换成空格
将第一个单词的首字母大写
将所有后续单词的首字母大写
自有清单中的目录专案
忽略
项目(正常)
标题目录
忽略
首选路径
首选路径(已连结)
首选标题(已连结)
首选路径+标题(已连结)
设置网站地图中用到的路径选项
连结使用完全位址
覆盖并转换连结中使用的斜杠
布局
每页栏数
值大于1,连结将分布于各栏
每页连结数
0 表示所有连结均将位于第1页
如果网站地图中存在多个页面,则在底部连结所有页面
另一方法是显示"开始"、"上一"、"所选"、"下一"和"最后"页面
设置网站地图中用到的根路径
可用于诸如以下情况:扫描的是"http://localhost",而网站地图针对的是"http://www.example.com"
将相对路径新增至范本网站地图中的"页头根连结"
在网站地图中将"index.html" (http://example.com/index.hml)而非"" (http://example.com/)设为"根页头连结"
字元集和类型
总是将网站地图档储存为UTF-8
选项仅对UTF-8为可选项的网站地图类型有效,如HTML/范本网站地图
用BOM储存UTF-8网站地图档
位元组顺序标记(BOM)选项仅在没有标准规定是否包括BOM时有效
生成的网站地图档:包括含有以下回应代码的网址:
生成的网站地图档:选项
删除"网管"和"输出"过滤中不包括的网址
删除"输出过滤"、"noindex"和"robots.txt"中不包括的网址
排序 URLs in sitemap after "importance" instead of "structure and alphabet"
排序 URLs in a way that mirrors "Analyze website"
包含 items with 回应代码 "rcNoRequest" / "-1"
Items with this response code will only have text and no link in generated sitemap files
控制
为空目录禁用"范本代码"
有些情况下有用,比如避免<ul></ul> (未通过W3C HTML验证)
启用根标题"范本代码"
若选中,"代码:根标题..."将与"根目录"一起插入"代码:页头"之下
将网址和标题中的字元转换成实体
"&"至"&amp;"、"<"至"&lt;"、">"至"&gt;"等
避免使用"极"<priority>和<changefreq>值
在将计算值转换成谷歌XML网站地图范围时有效
覆盖计算所得值
覆盖优先顺序
使用自动"优先顺序"计算,或全部设为相同的值。减号"-"会删除标签。用作"更改频率"的恢复项。
覆盖更改频率
使用自动"更改频率"计算,或全部设为相同的值。星号"*"会删除标签。
用所选日期/时间覆盖最后修改
使用自动"最后修改"计算,或全部设为相同的值。"重置"会将值设为"Dec 30th 1899",并删除标签。
重置
最后修改时区配置
Override the timezone part of the "LastMod" timestamps
用GMT时区修改值覆盖
谷歌网站地图档选项
为验证生成的网站地图档新增必要的XML
在网站地图中包含"hreflang"替代网址
为生成的网站地图档生成Gzip副本
如果原始名称为"sitemap.xml",则该"gzip"副本的名称将为"sitemap.xml.gz"
Apply "minimize" to the generated sitemap files(s)
消除了大部分多余的空白
XSL for XML sitemap files
XSL means "extensible stylesheet language". XSL can transform XML files so they become nicer looking in internet browsers
自动分割多个网站地图档前各网站地图中的最大网址数
Google news sitemaps
发行者姓名
预设语言
Google image sitemaps
确认每张图仅出现在清单一次
Create "image:caption" + "image:title" values *even* if no image "alt" or "title" attributes
Google video sitemaps
使用网页的标题/描述取代视讯档案的标题/描述
创建本机缩图影像 when it is an advantage to do so
Useful if your website does not contain proper video 缩图 images
确保每个视频只列出一次
代码:页头
代码:页脚开始
代码:页脚导航开始
代码:页脚导航结束
代码:页脚导航项位址开始
代码:页脚导航项地址结束
代码:页脚导航项标题开始
代码:页脚导航项标题结束
代码:页脚导航项分隔符号
代码:页脚结束
代码:标题开始,目录开始之前
代码:标题结束,目录开始之前
代码:目录开始
代码:目录结束
代码:标题/目录合并前
代码:标题/目录合并后
代码:专案连结位址开头开始
代码:专案连结位址开头结束
代码:项目连结开始
代码:项目连结结束
代码:专案连结标题末尾开始
代码:专案连结标题末尾结束
代码:标题连结位址开头开始
代码:标题连结位址开头结束
代码:标题连结标题末尾开始
代码:标题连结标题末尾结束
代码:栏开始
代码:栏结束
代码:根标题开始
代码:根标题结束
建立robots.txt
robots.txt档路径
建立robots.txt选项
基于排除的"crawl"和"清单"路径过滤新增"禁止"网址
新增"XML网站地图自动发现"
立即上传
全部上传
快速预设...
查看各种配置示例(可加快新项目的创建)
FTP选项
上传进度
主机和埠编号
上传目录路径
协定
If you select "ftps://" instead of "ftp://" please sure you have enabled OpenSSL in "General option"
连接模式
传输模式
帐号
密码
在专案储存和载入之间隐藏FTP密码
新增常见的ping
查看各种配置示例(可加快新项目的创建)
立即Ping
Ping选项
Ping进度
ping的地址
有些服务只需具体位址即可支援通知
针对HTML与XML档案,在文字与浏览器切换观看
在文字编辑器中打开所选文件
在记事本中打开网页
在IE中打开网页
在FireFox中打开网页
在Opera中打开网页
在Safari中打开网页
档案资讯
路径:
储存版本:
日期资讯
新建的专案:
最后修改的专案:
动态说明
浏览内置浏览器(Internet Explorer),前往所选地址
在IE中打开页面(可以改进浏览体验)
在Firefox中打开页面(可能改进浏览体验)
在Opera中打开页面(可能改进浏览体验)
Open in Safari for better offline browsing
Open the page in Safari (may give a better viewing experience)
预设存储档案名
如果网址太长,无法作为档案名储存到磁片,则采用以下命名方式:"<default>0、<default>1、<default>2"等
转换 URL extensions 在下载的内容里
转换成相对连结,以便在本地磁片上离线浏览档
转换成相对连结,以上传至HTTP网路服务器/网站
无转换
自动检测基于根路径类型
转换连结
新建.html副档名到网页内容网址 (方便离线观看)
下载使用的影像与相似的根据外部网域
工具路径
网际网路爬网
路径
一般选项
立刻建立
Search engine files: Directory path on disk
Search engine files: Search page file name
Search engine config: Override website root in files
If you scan your website at "http://localhost/", you can overwrite the "root" address used in the search engine files
Page is an "index" file (if so, the directory path is used for queries: "example.com/search/?search_p=phrase")
Kind of search engine to build
You can initiate a search through e.g. a <form> that calls "msa1_search.html?search_p=example"
If "search" is base then parameters format is: "search_p", "search_c" etc.
Results to show per page
Presentation and data in search results
Show "scores" in search results
Show "description" in search results
HTML structure used for presenting search results
Log searches to webserver statistics
Log all searches to server log files through an additional HTTP request: "msa1-logsearch.html?search_p=example"
Get
Website Download now : Download and store complete websites for later viewing. Perfect for researchers, travellers and dial-up users.
- Website download can be automated through command line.
- Can handle and find links in CSS as well as most Javascript files.
- Fast website downloader with options for connections, timeouts, crawler filters etc.
This language file is part of Website Download / Website Analyzer / Keyword Research / Sitemap Generator. All rights reserved. See legal.