: Convert dynamic websites into static and change all links to relative
NOTE: If you are doing translations, you only need to translate the .ini files.
zh-tw
正體中文(台灣)
Kenny Huo
kennyhuo#gmail.com
http://www.BlueEyes.com.tw
藍眼科技
歡迎參觀藍眼科技網站!
2017-02-27 15:43:51
A1 Sitemap Generator
8.0.0
可分析的網址最高數目限制為{dynCount}在"{dynEdition}"版本.
只有標準文字, RSS feed, HTML template與XML sitemap files被支援在"{dynEdition}"版本.
標題
描述
計數{dynCount}
At lines
With anchors
With "alt" attribute
With follow
權重{dynCount}
合併 {dynCount}
{dynEngine} #相關
{dynEngine} #已搜尋
{dynEngine} #分值
正在處理資料(可能需要較長時間)
連結
來源
直接
未知
連結自{dynCount}個頁面
連結到{dynCount}個頁面
被{dynCount}個頁面使用
使用 {dynCount} 網址
找到{dynCount}
描述
回應代碼
類
特殊
引用自
重指向自
找到{dynCount}
片語
網站
搜尋引擎
權重
計數
計數
無停用詞
自動偵測語言
頁面
網站
內建
使用者自建
內容中的加權 % 關鍵字密度匹配
Google網頁反向鏈接
Google計算的反向鏈接到網址
頁面源中的標題
HTML錯誤
W3C HTML錯誤
搜索引擎中的標題
搜索引擎結果頁中的標題
搜索引擎中的說明
Description in search engine result page
Search results in search engine
Google indexed
Google indexed URLs count
有些搜尋引擎設有專門的反排位檢測策略和措施。<NL><NL>請記住,可以編輯和添加新的搜尋引擎以進行檢測。<NL>同時也可以設置搜尋方式,比如兩次請求間的閒置時間等。<NL>本程式在請求時間之間強制設置了一定的閒置時間,以避免搜尋引擎"超載"。<NL><NL>所有搜尋引擎均同時檢測。意即"空閒"時間對整體速度影響不大。<NL><NL>是否立即開始排位檢測?
有些搜尋引擎設有專門的反檢測策略和措施。<NL><NL>請記住,可以編輯和添加新的搜尋引擎以進行檢測。<NL>同時也可以設置搜尋方式,比如兩次請求間的閒置時間等。<NL>本程式在請求時間之間強制設置了一定的閒置時間,以避免搜尋引擎"超載"。<NL><NL>是否立即在所選搜尋引擎上分析領先排位?
某些服務與搜尋引擎 have policies and measures against non-manual usage.<NL><NL>This program enforces some idle time between requests to try prevent "overloading" services and search engines.<NL><NL>Run 分析 now?
有些服務設有專門的策略和措施,用以防止非人工使用。<NL><NL>請記住,可以編輯和添加新服務以進行檢測。<NL>同時也可以設置使用方式,比如兩次請求間的閒置時間等。<NL>本程式在請求時間之間強制設置了一定的閒置時間,以避免服務"超載"。<NL><NL>所有服務均同時檢測。意即"空閒"時間對整體速度影響不大。<NL><NL>是否立即開檢索建議?
您已選擇在掃描過程中使用"外部工具"。<NL><NL>請注意,有些此類工具可能設有專門的策略和措施,以防止非人工使用。<NL>本程式強制設置了一定的使用限制(如連接數等),以防止"超載"。<NL><NL>是否繼續?
You have selected to integrate with an external online service during website scan:"{dynOnlineService}"<NL><NL>Please be aware that some of these may have policies and measures against non-manual usage.<NL>This program enforces some safety measures (例如 time between requests) to minimize chance of "overloading".<NL><NL>Keep setting?
Some services and search engines have policies and measures against non-manual usage.<NL><NL>This program enforces some safety measures (e.g. time between requests) to minimize chance of "overloading".<NL><NL>The process can take some time before it finishes.<NL><NL>Continue?
本檔的命名方式不符合規則。<NL><NL>正常命名模式為"{dynDirFilePathName}"。<NL><NL>是否使用本檔?
您需要選擇或向"活動位址"中輸入一個網址。
您需要選擇或向"活動關鍵字"中輸入一個關鍵字。
您需要向"待查位址"中輸入一個或多個網址。
您需要向"待檢測短語"中輸入一個或多個關鍵字。
您需要先進行網站掃描。<NL><NL>儲存和載入專案時,同時包括與網站掃描相關的以及通過網站掃描得到的所有資料。
The list of imported URLs are mostly all different and therefore placed in the "{tabExternal}" tab.<NL><NL>Do you want to enable the following options:<NL>- {optionRecrawl}<NL>- {optionExternal}<NL><NL>These are useful if you are planning on running a scan to check all the imported URLs.
您需要先以合適的設定值crawl網站.<NL><NL>In "{dynScanWebsite}" - "{dynQuickPresets}" select "{dynQuickSelet}".<NL><NL>然後開始新網站掃描.
You can usually get much better results if you crawl the website with appropriate settings first.<NL><NL>In "{dynScanWebsite}" - "{dynQuickPresets}" select "{dynQuickSelet}".<NL><NL>Then start a new website scan.<NL><NL><NL>Note: Also make sure you are not blocking media from crawlers, e.g. through a "http://example.com/robots.txt" file on server.
存取檔案問題發生在位置"{dynDirFilePathName}". 網站地圖沒有建立.<NL><NL>為解決此問題, 嘗試再次建立網站地圖.
網站地圖輸出檔路徑"{dynDirFilePathName}"中的目錄不存在。<NL><NL>是否立即創建目錄?
無法創建"{dynDirFilePathName}"。<NL><NL>原因可能是無寫入許可權或許可權不夠。
路徑 of app data files has to be local to app when in debug mode and saving sitemap templates
All template names starting with "a1sg-" are reserved for default templates. Please choose another name for your sitemap template. Then try save again!
Root directory 路徑 "{dynDirFilePathName}" needs to end with a slash. 使用 entered path?<NL><NL>Click "Yes" to 新增 a trailing slash to the root directory 路徑 entered.<NL>Click "No" to have the 路徑 added as a "start scan path" and afterwards cutoff to nearest directory.
所選"根路徑"似乎不在"根路徑別名"清單中。<NL><NL>是否刪除舊"別名"值?
你已啟用選項:<NL>"{dynOptionPath1}"<NL><NL>However, with this enabled, you also need to fill valid 路徑 into:<NL>"{dynOptionPath2}"<NL><NL>Disable option:<NL>"{dynOptionPath1}"<NL>?
You have enabled option:<NL>"{dynOptionPath1}"<NL><NL>However, with this enabled, you also need to fill valid 路徑 into:<NL>"{dynOptionPath2}"<NL><NL>Disable option:<NL>"{dynOptionPath1}"<NL>?
你已啟用選項:<NL>"{dynOptionPath1}"<NL><NL>However, with this enabled, you also need to fill valid 路徑 into:<NL>"{dynOptionPath2}" or enable W3C validation<NL><NL>Disable option:<NL>"{dynOptionPath1}"<NL>?
新增文字"{dynOptionWord}"到目錄檔案"{dynOptionPath}"?
{dynCount} characters. Text percentage: {dynPercent}% of characters.
已分析/已找到
個網址
網站地圖
內部
外部
提示: 控制 the search index size (quality) in the "Analyze text content" tab, section "site 分析"
Edit Cell
&OK
&取消
新專案
打開專案...
打開專案
Ctrl+O
儲存專案
儲存專案
Ctrl+S
專案另存為...
更新檔
更新檔
印表機設置...
列印
列印
Ctrl+P
退出
將所選資料匯出為檔...
將所選控制中的資料匯出為檔
從文件中導入網址...
從檔中導入網站資料
將文件中的URL導入"外部"列表...
導入一個URL列表,其中程序假定大多數URL來自不同的域,因此都屬於"external"
剪下
剪下所選檔案
Ctrl+X
複製
複製所選檔案
Ctrl+C
貼上
從剪貼簿貼上檔案
Ctrl+V
刪除
刪除所選檔案
Ctrl+Del
全選
選擇活動控制中的全部檔案
Ctrl+A
復原
取消上次更改
Ctrl+Z
搜尋...
找文字
Ctrl+F
找下一個
找下一個
F3
替換文字...
替換文字
Ctrl+R
切換自動換行
新增項
在所選項後新增項
Ctrl+Alt+R
插入行
在所選行之前插入行
Ctrl+Alt+I
新增子項
在所選項中新增子項
Ctrl+Alt+C
刪除項
刪除所選項
Ctrl+Alt+E
新增選擇好的路徑(only) to "limit-include-to" filters
新增選擇好的路徑 + sub-paths to "limit-include-to" filters
新增選擇好的路徑 plus sub-paths to "limit-to" in both "output" and "analysis" filters
新增選擇好的路徑 (only) to "exclude" filters
Ctrl+Alt+F
新增選擇好的路徑 + sub-paths to "exclude" filters
Ctrl+Alt+F
新增選擇好的路徑 plus sub-paths to "exclude" in "analysis" filters
上移項目
將所選項上移
Ctrl+Alt+U
下移項目
將所選項下移
Ctrl+Alt+D
排序
排序
展開所有
收縮所有
上一頁
查看上一頁
Shift+Ctrl+Z
下一頁
查看下一頁
Shift+Ctrl+X
更新
本操作將清除緩存並更新內容,編輯原始檔案時除外。
F5
瀏覽檢視器
將"上一頁、下一頁、更新"與嵌入控制(如Internet Explorer視窗)相關聯。
Ctrl+Alt+N
已找到專案
硬碟路徑
回應代碼
回應代碼描述
檢測到URL內容狀態標誌
抓取引擎狀態標誌
回應時間
下載時間
檔案大小
文字計數
Text content percentage
MIME類型
文件字元集
語言編碼
已修改檔
Click-to navigation count
連結自
Linked to by anchors
依照清單連結到
Used by alt text
依照清單來源到
依照清單重新導向到
到內部的連結
到外部的連結
Redirects to path
目標回應代碼
算出的重要性分數
調整後的重要性分數
HTML驗證錯誤
CSS驗證錯誤
驗證錯誤拼寫
Indexed in search engines
Page 內容 searches
頁面標題
頁面描述
頁面關鍵字
Page H1
Page H2
標題 characters count
標題像素 width
描述 characters count
描述像素 width
Page 內容 keywords (weighted density)
Page 內容 duplicates (visual view)
Internet Explorer瀏覽器
Opera瀏覽器
FireFox瀏覽器
ALI_View_SideItemsMode
在以"樹形"和"清單"形式顯示找到的網站項之間進行切換
資料過濾
Tip: It is often better to view filtered data using a "flat" view instead of "tree" view
簡單模式
在"簡單"和"進階"模式間切換
Standard quick filter behavior
重複的標題
只顯示 URLs with duplicate 標題 when applying filter
重複的描述
只顯示 URLs with duplicate META 描述 when applying filter
重複的關鍵字
只顯示 URLs with duplicate META keywords when applying filter
只顯示 URLs with duplicate H1 tags
只顯示 URLs with duplicate H1 標題 when applying filter
只顯示 URLs with duplicate H2 tags
只顯示 URLs with duplicate H2 標題 when applying filter
只顯示 URLs with filter-text found in "response code" columns
Only apply "quick filter" on response code related columns instead of all
只顯示 URLs with filter-text found in "URL state flags" column
Only apply "quick filter" on "state flag" column
只顯示 URLs with "file size" < filter-text-as-number
只顯示 URLs with "file size" > filter-text-as-number
只顯示 URL pages with "word count" < filter-text-as-number
只顯示 URL pages with "word count" > filter-text-as-number
只顯示 URLs with "標題 length" < filter-text-as-number
只顯示 URLs with "標題 length" > filter-text-as-number
只顯示 URLs with "標題像素 count" > filter-text-as-number
只顯示 URLs with "描述 characters count" < filter-text-as-number
只顯示 URLs with "描述 characters count" > filter-text-as-number
只顯示 URLs with "描述像素 count" > filter-text-as-number
只顯示 URLs that are images
只顯示 URLs that are pages
只顯示 URLs where "linked-by" or "used-by" miss anchors / "alt"
顯示 URLs as stored in data
顯示 URLs using real characters
顯示 URLs percentage encoded %
Allow big URL lists in data columns
An URL can have many pages that link to making the user interface hard to use. This option is mostly used when exporting data.
List URLs with "404 - not found" response
List of URLs that redirect
List URLs that point to other using canonical
List pages with duplicate titles
List pages with duplicate H1s
List pages with duplicate H2s
重複描述的網頁清單
List pages excluded by noindex
List pages excluded by robots.txt
顯示 only pages with titles over 70 characters - and relevant data columns
顯示 only pages with titles over 510像素 (Google) - and relevant data columns
顯示 only page URLs - and SEO relevant data columns
顯示 only 影像 where some "linked-by" or "used-by" miss anchors / "alt"
格式化和刪除空白符
刪除HTML注釋
高亮顯示文檔句法
生成重要性資料
生成匯總數據(延伸)
拼音檢查文件
F7
新增文字到 "xxx--custom-user.dic" (global)
Ctrl+Alt+G
新增文字到 "xxx--custom-user-project.dic" (project)
Ctrl+Alt+P
網站掃描完成後打開資料
計算匯總數據(延伸)
總是打開已創建的網站地圖
快速存儲分析資料
建議選擇,除非您希望查看/編輯XML檔
包括網站分析資料
如果您以後希望載入專案並查看網站搜尋過程中檢索的資料,請使用此項
將分析資料限為"網站地圖"
如果您只對"網站地圖"中的檔感興趣,請使用此項
"減少"連結
如果同一頁面存在多個連結至同一網址的連結,則每個連結的"link juice"(連結果汁)會減少
"無自我"連結
如果頁面含有自我連結,則這些連結將被忽略
標題字體...
描述字體...
重置為預設值
匯出帶頁頭的CSV數據
匯出帶網址的CSV頁頭
Wrap cells with line breaks in ""
Wrap line breaks in "" instead of replacing them with whitespace
以unicode with BOM輸出
以UTF-8 (unicode)輸出
以UCS-2 / UTF-16 LE (unicode)輸出
以ANSI (local codepage)輸出
讀我檔案...
查看讀我檔案
程式日誌
查看程式日誌
線上求助
觀看線上求助
F1
離線求助
觀看提供的離線求助
提示...
查看提示
更新...
檢查更新
立即購買...
買程式(打開線上購買網頁)
輸入註冊碼...
購買後您會收到使用說明進行軟體解鎖
發送回饋意見
造訪官方網站
連結與分享
連結與分享軟體在社群網站,像是Facebook, Google+與Twitter
求助論壇
關於...
A1 Sitemap Generator
網站地圖生成工具首頁
A1 Website Analyzer
網站分析工具首頁
A1 Keyword Research
關鍵字搜尋工具首頁
A1 Website Download
網站下載工具首頁
結構
樣式
恢復預設設置
Google video sitemap
Google video sitemap (website has videos hosted externally)
Google image sitemap
Google image sitemap (website has 影像 hosted externally)
Google mobile sitemap
Google code sitemap
WordPress CMS/blog website
Joomla CMS website (with crawler throttling)
Magento CMS website
phpBB論壇網站
SMF論壇網站
VBulletin論壇網站
XenForo論壇網站
SharePoint網站
Wiki網站
清除檔案類型在 "輸出過濾器" (下載)
新增影像檔
新增視訊檔
新增聲音檔
新增壓縮檔
新增執行檔
新增文件檔
Add common "safety" filters for use with login
恢復預設值
HTML範本網站地圖:HTML
HTML範本網站地圖:CSV
XML網站地圖:XML網站地圖協議(Google網站地圖)
XML Sitemap : Google News Sitemaps
恢復預設設置
example.com
改變視窗尺寸
改變視窗樣式
數據報告(列和過濾器)
資料網址編碼
數據資料列
數據資料過濾器選項
核心數據
網址參照
重要的ranks
驗證結果
提取的內容
全部啟用
全部停用
全部啟用
全部停用
全部啟用
全部停用
全部啟用
全部停用
全部啟用
全部停用
全部啟用
全部停用
&檔案
&編輯
&表格
&查看
&工具
&選項
&幫助
重啟專案
程式選項
專案選項
網站掃描後
網站地圖建立後
儲存與載入
網址重要性演算法
字型像素計算
資料輸入/輸出
Scraper選項
掃描網站
分析網站
重新搜尋關鍵字
搜尋引擎創建者
線上工具
建立網站地圖
建立robots.txt
查看檔案
上傳檔案
Ping網站地圖
一般選項
查看網站
專案資訊
tsDevCtrls
tsDevCtrls2
tsDevCtrls3
重新搜尋
若希望"重新搜尋"網站頁面,請啟用此項(使用現有網站掃描資料)
重新檢索 (僅列出)
Enable when you want to "重新檢索" only already found website pages (uses current website scan data if any)
恢復
若希望"恢復"網站搜尋,請啟用此項(使用現有網站掃描資料)
恢復(修正錯誤)
針對錯誤修正 "恢復" 網站爬行 (使用現有網站掃描資料)
開始掃描
停止掃描
快速預設...
查看各種配置示例(可加快新項目的創建)
路徑
掃描進度
下載選項
爬網選項
爬網引擎
爬網標識
網管過濾
分析過濾
列表過濾
資料收集
預設路徑類型
如果爬網遇到未知連結/引用"情境",則會恢復預設設置
HTTP(網際網路和本地主機)
HTTP使用WinInet引擎與設定(Internet Explorer)
HTTP using "WinInet/IE" - uses Internet Explorer for settings and AJAX content (experimental)
本地磁片/UNC/區網
自動偵測
自動檢測基於根路徑類型
HTTP代理設置
多數情況下,可以忽略代理設置。
DNS名/IP地址
埠
帳號
密碼
Number of 1/1000 seconds "crawl-delay" between active connections
"連接"超時前等待毫秒數(千分之一秒)
"讀取"超時前等待毫秒數(千分之一秒)
失敗與新連接嘗試之間的毫秒數(千分之一秒)
放棄前嘗試連接至某個資源的次數
頁面請求預設為GET(而非HEAD之後為GET)
這兩種選擇可能存在性能差異,具體視網站和網頁伺服器而定
預設為持續連接
持續連接適用於不歡迎多次連接/斷開的網頁伺服器
待發送的Accept-Language請求頁頭(若不填,則不發送)
Additional HTTP request headers to send (if left empty, none is sent)
儲存重定向、來自和指向所有頁面的連結、統計等資料
用於查看檔的連結和重定向源。該資料同時用於完善各種計算
儲存額外的細節(例如 which line in URL 內容 a link is placed)
用於觀看豐富的細節
儲存找到的外部連結
有時可用於查看找到的"外部"連結
執行所有頁面的關鍵字密度分析
儲存所有頁面的標題
儲存所有頁面的"meta"描述
針對所有網頁儲存"關鍵字"描述
針對所有網頁儲存H1與H2
針對所有連結儲存錨文本
儲存 "alt" attribute of all "uses" (例如 "img" HTML tag)
使用 "fallback" tags for 標題 and 描述 if necessary
Examples of "fallback" data include "og:description" meta tag
網站目錄根路徑(網站掃描的唯一必選項)
許多情況下,這是需要填寫的唯一欄位
連結中的會話和使用者變數
有時會話變數可能存在於網址中:"demo.php;sid=xxx"或"demo.php?PHPSESSID=xxx"。檢測時區分大小寫
目錄索引檔案名
有些網站使用重複網址而不重定向,如http://example.com/dir/和"http://example.com/dir/index.html"
內部檔路徑區分大小寫
若知道主機運行的是Windows作業系統,請不要選中此項
爬網錯誤頁(如回應代碼404)
該選項適用於一些罕見情況,主要為內容管理系統等
驗證外部連結是否存在
如果存在大量無效連結,驗證外部連結可能使網站掃描進程變慢
允許重定向
啟用此項後,也可查看網站掃描過程中發生的所有重定向
針對重定向考慮 0 秒meta更新
如果網頁包含對不同網址的0秒元刷新,則應將其視為一種重定向
允許cookies
在資料傳送中允許GZip/壓縮
最大同時連接 (數據傳輸)
更多的同時連接不總是快. 你和伺服器之間的連接負載和速度是重要
最大同時連接數
增加同時連接數不一定能加快速度。重要的是您與伺服器之間的連接負荷和速度
高級引擎設定
跟蹤並儲存擴展網站資料(對於大型網站,請取消選擇)
儲存擴展網站資料會增加記憶體用量,並可能損害爬網性能
使用外部工具
拼字檢查與字典檔
"編輯"按鈕僅啟用"xxx--custom-user.dic"檔
啟用拼字檢查(在"一般選項 | 工具路徑"選擇字典檔)
記住要在"一般選項"-"工具路徑"選擇字典檔
尋找網頁中字串與代碼
所有進入值必須有"name-id=regular expression"格式
捕獲和存儲匹配的正則表達式
運行自定義搜索之前,請剝離HTML和其他代碼
檢查網址是否在所選搜索引擎中排名(減緩網站掃描)
在搜索引擎中搜索頁面標題。Special values: 0=not-checked (e.g. images), 250=max-value, 251=not-found, 255=error
啟用檢查哪些網址已編入索引
使用者代理ID
有些網站可能對不同的爬網/使用者代理返回不同內容。
主要的
在極少情況下應使用隨機使用者代理ID。
次要的(通常不使用)
在爬行前以瀏覽器登入(WinInet HTTP crawler engine)
支援 "基本認證". 記住允許cookies.
在爬行前開啟內建瀏覽器並登入
登錄(使用者/密碼)
支持"基本驗證"和"POST"兩種表單。請允許cookies。
網站登入(post形式)
每次請求時發送HTTP頁頭(基本驗證)
用戶
密碼
更多"key=value"參數(post)
登錄路徑(post)
爬網模式和選項
為網站掃描創建日誌檔(會降低網站搜尋速度)
儲存在程式的使用者資料目錄"logs - misc"中
儲存 non-HTTP references in "external" (例如 "ftp:" and "news:")
儲存所有頁面的回應頁頭檔案
儲存 response 內容 text for 所有網頁
用W3C驗證器驗證HTML(若需啟用,請選擇大於0的數位)
設置本工具使用的最大同時連接數
用W3C驗證器驗證CSS(若需啟用,請選擇大於0的數位)
設置本工具使用的最大同時連接數
搜尋所有連結標籤類型
擴展搜尋以包括:<img src="">、<script src="">、<link href="">等
搜尋所有<form>和相關標籤
擴展搜尋以包括:<form>、<input>、<select>等
總是掃描含有已連結網址的目錄
本設置可確保始終掃描目錄,即使目錄本身沒有直接連結
如果Web服務器阻止使用的搜尋器用戶代理ID,請調整搜尋器設置
某些網絡服務器會自動阻止未知網站抓取工具
修復帶有明確定義的預設埠號的"內部"網址
例如:如果掃描的是"http://example.com/",網站爬網引擎同時會將"http://example.com:80/"作為內部網址
根據網站根路徑,修復帶有"www."的錯誤"內部"網址
例如:如果掃描的是"http://example.com/",網站爬網引擎同時會將"http://www.example.com/"作為內部網址
修正"internal" URLs with protocol incorrect compared to website root
範例:假如掃描"http://example.com/", the website crawler engine will also accept "https://www.example.com/" as internal
修正"internal" URLs if website root URL redirects to different address
範例:假如掃描"http://example.com/", the website crawler engine will also accept "https://www.example.com/" as internal
Fix URL "mime" types when server is returning obvious wrong data
Example: If server returns mime type "text/html" for URLs like "example.jpg" and "example.png"
如果網址重定向到自身,請修復網址重定向響應代碼
確保網址在進一步處理之前獲得解碼百分比
If you want to keep the original URLs, even if they 使用 non-standard percentage encoding, uncheck both encode and decode options
確保網址"path"部分採用百分比編碼
確保網址"query"部分採用百分比編碼
嘗試搜尋連結 in "FlashVars" (extended)
Handle "FlashVars" URLs relative to page *or* Flash player URL location
嘗試搜尋Javascript中的連結(擴展模式)
選中此項,程式將嘗試搜尋和猜測所有腳本段和函數中的連結
嘗試尋找Flash中的連結(見"一般選項"-"工具路徑")
這將會試著在Flash檔案中尋找與猜測連結
Try search inside PDF (see "General options" - "Tool paths")
This will attempt to find and guess links inside PDF files
嘗試在連結中尋找視訊內容
Can sometimes be useful for sites if the scan configuration presets for video 內容 are not enough
在網站掃描停止過後應用"網管"和"列表"過濾
去掉被"robots.txt"、"noindex"和程式配置"輸出過濾"中阻止的網址
使用特殊 "response" codes for when page URLs 使用 canonical or similar
為了方便, "special" codes can be assigned if URLs 使用 例如 canonical, meta refresh and other 相似的 states
下載"robots.txt"
總是下載"robots.txt"以標識為爬網/機器人
遵循"robots.txt"檔"disallow"指令
本檔通常被網管用於"引導"爬網/機器人
Obey "robots.txt" file "disallow" directives specificly for *this* program
This file is often used by 網站管理者 to "guide" specific crawlers/robots
遵循"robots.txt"檔"crawl-delay"指令
遵循"meta"標籤"robots" noindex
遵循"meta"標籤"robots" nofollow
遵循"a"標籤"rel" nofollow
遵循"link"標籤"rel" canonical
Search for and 新增 found "robots.txt" file to scan results
Search for and 新增 found "sitemap protocol" files to scan results
忽略"動態迴圈"(dynamic circular)生成的內部連結
忽略諸如"http://example.com/?paramA=&amp;paramA"之類的連結(比如利用網頁自身資料創建新網頁的動態頁面)
內部連結的最大字元數
截去內部連結中的會話變數
將非重定向索引檔案名網址作為"重複"
Consider non-redirected with-slash and non-slash URLs as "duplicates"
The "real" URL of the two is determined by which is linked the most in the website
截去內部連結中的"?"(GET參數)
刪除連結中的"?",從而確定是否將"page.htm?A=1"和"page.htm?A=2"當作"page.htm"處理
截去內部連結中的"#"(頁內地址)
確定是否將"page.htm#A"和"page.htm#B"當作同一頁面
截去外部連結中的"#"(頁內位址)
確定是否將"page.htm#A"和"page.htm#B"當作同一頁面
當內部連結使用"\"而非"/"時予以糾正(僅適用於HTTP掃描模式)
例如,將所有連結中的"folder\sub"糾正為"folder/sub"(僅適用於HTTP掃描模式)
當內部連結使用"//"而非"/"時予以糾正
比如,將所有連結中的"folder//sub"糾正為"folder/sub"
將<iframe>標籤當作連結
總是將<iframe>當作"source"。但有時當作"link"也非常有用
根路徑別名
用於涵蓋http/https/www變體以及映射/指向相同內容的位址
Limit output of URLs to those with "MIME content type" in list
如果沒有返回MIME類型,也將執行列表
將內部網址列表限制為清單中"相對路徑"中的網址
將清單限制為允許清單中的路徑(使用相對路徑,如"dir/")。若不填,將使用網站根路徑
Limit output of internal URLs to those below depth level
Depth level: "-1" = no limits. "0" = root domain/directory. "1", "2", "3" ... = all paths below chosen directory depth level.
Website directory path depth level
排除與"相對路徑/字串/ regex"清單中專案相匹配的內部網址
檔案字串匹配:"mypics"。相對於根的路徑:":mypics/",僅子路徑:":mypics/*",regex搜尋:"::mypics[0-9]*/"
在網站根路徑之外,從以下路徑開始掃描
在網站未交叉連結或者"root"目錄不同於"index.html"的情況下,可使用此選項
Import a list of URLs from a text file to use as additional start search paths
Import a list of URLs from Google "site:example.com" query
Import a list of URLs from Bing "site:example.com" query
Import a list of URLs from Ask "site:example.com" query
針對在"output filters"選項中的一般設定
內部網址的限制輸出到回應代碼
將搜到的檔儲存至以下磁片目錄路徑
配置和測試要從頁面中刪除的內容
其他選項
檔案與路徑設定
Scrape test actions (configure below first)
Extract data into CSV file at path
Extract data into SQL file at path (MySQL format)
Execute command line after scrape. [MySQL: "c:\mysql\mysql.exe" -u root dbname < "c:\extraced.sql"]
Define regular expressions (how to extract)
Test raw input (to see how regex works)
Insert HTML source from URL
使用正則表達式同步輸出選項
定義輸出數據格式 (CSV)
掃描資料
掃描狀態:
已用時間:
內部"網站地圖"網址
已找到列表網址:
已減少列表網址:
已分析內容:
已分析引用:
外部網址
已找到列表網址:
在爬行引擎等待的工作
"Init" 找到的連結 (唯一時檢查) :
"Analyze" 找到的網址 (或考慮它) :
在爬行引擎完成的工作
"Init" 找到的連結 (唯一時檢查) :
"Analyze" 找到的網址 (或考慮它) :
將內部網址分析限制為列表中含有以下"MIME 內容 type"的網址
如果未返回MIME類型,也會進行分析
將內部網址分析限制為列表中含有"檔副檔名"的網址
總是會分析目錄
區分大小寫的比較
決定是否所有過濾均區分大小寫(比如,".extension"是否與".EXTENSION"相匹配)
將內部網址列表限制為列表中含有"檔副檔名"的網址
不填,包括所有。始終包括目錄
區分大小寫的比較
決定是否所有過濾均區分大小寫(比如,".extension"是否與".EXTENSION"相匹配)
Always accept URLs with no file extensions (例如 directories)
將內部網址分析限制為清單中"相對路徑"中的網址
將分析限制為允許清單中的路徑。請使用相對路徑,如"dir/"和"dir/file.htm"。若不填,將使用網站根路徑
將內部網址分析限制為深度層次以下的網址
深度層次:"-1"=無限制。"0"=根域/目錄。"1", "2", "3" ...=所選深度層次以下的所有路徑。
網站目錄路徑深度層次
Limit 分析 of 內容 of URLs to equal/below byte size
使用 this to avoid parsing page URLs hundreds of megabytes large (0 = no limit on size)
只分析內容 in page URLs up/equal to byte size
"分析過濾"中各選項的一般設置
不對與"相對路徑/字串/ regex"清單中專案相匹配的內部網址進行分析
檔案字串匹配:"mypics"。相對於根的路徑:":mypics/",僅子路徑:":mypics/*",regex搜尋:"::mypics[0-9]*/"
網管爬網過濾
網站"爬網陷阱"檢測
網站連結結構
路徑
路徑部分
下載路徑
硬碟路徑 (only shown for paths that had to be converted)
項目
找到的專案
回應代碼
HTTP回應代碼
R.Desc
HTTP回應代碼描述
網址旗標
URL and 內容 state "flags" detected for URL
Crawler Flags
Crawler engine state "flags" for URL
回應時間
回應時間(毫秒)
下載時間
下載時間(毫秒)
大小
文件大小(KB)
文字計數
文字計數
Text content %
How much of the page content is from text
MIME
MIME內容類別型
字元集
字元集和編碼
語言
語言與文化編碼
修改
通過HTTP頁頭或meta標籤返回的最後修改日期/時間
Click.Nav.Count
Clicks it takes from website root to reach page (i.e. navigation lengh count)
Linked.Count
Incoming links count found within website
Linked.Anchors
Incoming anchor text links from within website
Used.Alt
來自網站內的使用的傳入替代文本
Linked.L
Incoming links list from within the website
Sourced.L
Incoming uses list from within the website
Redirected.L
Incoming redirects list from within the website
內部連結
頁面上的內部連結
外部連結
頁面上的出站外部連結
重定向路徑
Redirects or points to other 路徑 (HTTP, canonical etc.)
Ref.R.Code
目標網址的回應碼(重新導向或類似)
重要性
檔分數(對整個網站的所有連結進行加權計算得出)
調整重要性
調整後的重要性分數(0-10)
HTML錯誤
HTML驗證錯誤
CSS錯誤
CSS驗證錯誤
拼寫錯誤
拼寫錯誤
SE.Indexed
URL indexed 在搜尋引擎
搜索內容
網頁搜索內容
標題
網頁標題
降冪
網頁描述
關鍵字
網頁關鍵字
網頁.H1
網頁H1內容
網頁.H2
網頁H2內容
標題文字
標題文字計數
標題像素
標題像素寬度
描述文字
描述文字計數
描述像素
描述像素寬度
網頁內容關鍵字
top 關鍵字 (使用加權關鍵字密度分析)
相似網頁內容
Shows most important "elements" visually. Sorting uses all available data to score and group pages with 相似的 content.
您可以在此輸入位址並用"更新"按鈕(也可按一下"回車"鍵)
不填,使用預設設置。否則,請在此輸入另一個使用者代理ID(有些網站可能會返回不同的內容)
Type or select "browser" user agent
Leave empty to use default. Otherwise enter another user agent ID here (some websites may return different content)
Type or select phrase / keyword
鍵入或選擇關鍵字或短語
數據資料過濾器選項
Choose between different common reporting presets that shows/hides data columns and filters data
Control if URLs are shown using a "list view" or "tree view" and if URLs are percentage encoded "%"
Configure which data columns are visible
Special filtering modes that can be applied through the "quick data filter" button
網站地圖
外部
核心數據
外部資料
查看文件
查看原始檔案
W3C驗證HTML
W3C驗證CSS
Tidy驗證
CSE驗證
連結數[內部]
連結數[外部]
連結自
使用次數[內部]
使用次數[外部]
使用來源
重定向自
目錄摘要
回應頁頭
標題
儲存
鎖住
When "save" also "lock" across scans when using "重新檢索"
回應代碼
測試
測試: HEAD
調整後的重要性分數
對進站連結進行加權處理並轉換成基於對數的0-10量表
讀取
鎖定
When "save" also "lock" across scans when using "重新檢索"
爬網狀態標記
儲存
已下載內容
需要分析
分析已開始
分析完成
內容分析完畢
引用分析完畢
資訊請求完成 ("head")
完全請求完成 ("get")
檢測到"robots.txt"過濾
將"robots.txt"過濾與"分析" + "列表"過濾之各進行對比
檢測到"meta robots noindex"
檢測到"meta robots nofollow"
檢測為 meta/header "robots noarchive"
檢測為 meta/header "robots nosnippet"
檢測到"link robots canonical"
Detected URL with AJAX "!#"
Detected page as AJAX fragment source
Detected page as AJAX fragment destination
檢測到"do not list"過濾
包括"列表"過濾
檢測到"do not analyze"過濾
包括"分析"過濾
檢測到"目錄索引檔"
檢測到"meta refresh redirect"
檢測為 multimedia/video
檢測為multimedia/video-image
檢測為multimedia/media-thumb
檢測為 as file/robots.txt
檢測為 as file/sitemaps-protocol
Google PageRank
讀取
預計更改頻率
基於"重要性分數"和一些HTTP頁頭的計算
讀取
內容的MIME類型
字集
語言 / 本地化
最後修改
在本地檔中,檢測"最後修改的檔",在HTTP中檢測"最後修改的"伺服器回應頁頭
測試
儲存
下級地址
If you want to create a folder, end the name with a slash "/"
儲存
部分位址
完全地址
完整網址 (as URL percentage encoded)
完整網址 (as URL percentage decoded)
儲存
重新導向至
|如果檔在本地磁片中,您可以使用功能表"檔 – 更新檔"儲存更改
無頁面需要驗證
無頁面需要驗證
選擇一個頁面或短語以啟動內置的瀏覽器
PDF to HTML conversion and parser
Click "bookmark" button. Download and extract files to disk, e.g. "c:\example\utility\tool.exe". Use this path as value.
Flash轉換與分析成HTML(例如Adobe "swf2html")
點選"bookmark"按鍵.下載與解開檔案到硬碟,例如"c:\example\utility\tool.exe". 使用 this 路徑 as value.
下載OpenSSL for "https" support with "Indy" HTTP engine. Extract files into:
點選"bookmark"按鍵. Check you legally can 使用 OpenSSL. 下載 and extract to program directory path. Restart program.
TIDY 執行路徑 (for HTML validation)
CSE HTML Validator *command line* 執行路徑 (for HTML/CSS validation)
Look for "cmdlineprocessor.exe" in your CSE installation directory
Enable OpenSSL for Indy HTTP communcation wth "https://" URLs
Is OpenSSL cryptography (algorithms, patents, importing etc.) legal in your jurisdiction?
Google(資料中心和選項)
網站爬網未使用。僅在需要時用於其他地方
決定用於檢索資料的主機,如http://www.google.com/(如有多個,有時將取檢索到資料的平均值)
啟動PageRank檢測功能
停用詞過濾
相應的值顯示相對重要性。0 表示未從中提取檔案。
標題檔案<title></title>
頁頭檔案<hx></hx>
頁頭<h1>權重最大。如果"正常檔案"為1且"頁頭檔案"為3:則H1=1 + 6/6 * (3-1), H6=1 + 1/6 * (3-1)
錨點檔案<a></a>
正常檔案
圖像替換檔案
<img alt=""> with the alternative text placed inside the pair of quotes
標籤屬性"標題"
<img title=""> with the title text placed inside the pair of quotes
Meta描述
Meta關鍵字
網址中的字
網頁分析: Result ranges
End phrase markers
Removed from content
Page analysis: Result ranges
Min words in phrases
Max words in phrases
Max results per count-type
Max results for each phrase kind (例如 1-word type, 2-word type etc.)
Site 分析: Result ranges
Min words in phrases
Max words in phrases
Max results per count-type
Max results for each phrase kind (例如 1-word type, 2-word type etc.)
<#32>, (逗號)
在所有關鍵字之間插入一個逗號
<#32>\s (空格)
在所有關鍵字之間插入一個空格
<#32>\n (新行)
在所有關鍵字之間插入一個新行
分割並顯示含有指定詞數的短語。"*"顯示含有1至5個詞的所有短語。
將關鍵字清單的字元數限制為固定值。"*"=全部。"#"=計算字元數且允許編輯。
以固定字元數限制檔案大小。"#"=計算字元數且允許編輯。
在此輸入檔案,供檢測關鍵字密度使用(未選擇頁面/網址時使用)
片語
計數0
計數%
權重0
權重%
合併 *
合併 %
鎖定分析結果
按下後,當"活動位址"更改時,關鍵字頁面將不再自動更新
提取關鍵字並分析密度
原始檔案輸入
關鍵字清單輸出
工具
元素中的檔案權重
Analyze active address
Analyze raw text input
Special: Uses site scan data
Remember that you may have to enable certan options in "scan website - data collection" for data to be available
Sum scores for selected pages
If you for the site scan enabled "data collection - perform keyword analysis", you can sum and view scores of the selected pages
Text weight in elements
選擇希望使用的(含有搜尋引擎檢索明細)檔(只能選一個)
選擇希望使用的(含有定位引擎檢索明細)檔
選擇希望使用的(含有建議引擎檢索明細)檔
輸入一個或多個網站位址。<SelectedSite> 和<SelectedPage>自動新增"活動位址."
輸入希望在所選網站中進行定位檢測的短語。<SelectedPhrase>自動新增"活動關鍵字短語".
輸入來自列出的"短語/詞"。
用停用詞新增或編輯檔
瀏覽至所選地址
專案將顯示在"快速"選項卡中
用"線上工具"配置新增或編輯檔
寫入或選擇一個位址
頁面[關鍵字]
分析網址清單
位置[分析]
位置[檢測]
位置[歷史]
關鍵字[激增]
關鍵字[建議]
合併關鍵字清單。將每個關鍵字短語分行寫出。用空白行分開所有關鍵字清單
再輸入一個短語。用下面的工具快速增加關鍵字清單
分析
分析搜尋結果
停止分析
停止分析
顯示資訊
Have "pressed" to show hints and warnings before fetching results
URLs to check
輸入你要分析的網站網址 (一行一個)
從文字檔載入預設值
儲存預設值至文字檔
工具
分析搜尋結果
分析搜尋結果
停止分析
停止分析
顯示資訊
已"按下",以在讀取結果前顯示提示和警告
Save to history
Save results to position check history data (used for graphs etc.)
片語檢查
針對選取的網站,輸入你要檢查的片語. <選擇的片語> 自動增加 "Active 關鍵字 phrase".
從文字檔載入預設值
儲存預設值到文字檔
工具
引擎和深度檢測
頂部位置
停止檢測
停止位置檢測
位置檢測
開始位置檢測
儲存至歷史
將結果儲存至位置檢測歷史資料(用於作圖等)
顯示資訊
已"按下",以在讀取結果前顯示提示和警告
工具
待搜尋的地址
待檢測的短語
搜尋引擎
將預設儲存至文字檔
從文字檔載入預設
將預設儲存至文字檔
從文字檔載入預設
將預設儲存至文字檔
從文字檔載入預設
乘以預設延遲
新增網址路徑至結果
合併至輸入
將關鍵字清單(清單用空行分開)合併至輸出
Spintax to input
Spin syntax (spintax) 內容 for 使用 in various article/內容 submission tools
Diff to input
Example: "a, b" diff "b, c" diff "c, d" results in "a, d" as "a" and "d" both only occur once
清除tumbler
合併關鍵字清單
Spintax關鍵字清單
Diff keyword lists
新增至輸入
替換輸入
清除輸入
新增至輸出
替換輸出
清除輸出
Input to output tools
Output tools
變換單詞位置
輸入至輸出:包括"tools power" (而非"power tools")一類的詞排列
缺少空格
輸入至輸出:包括"powertools" (而非"power tools")一類的輸入錯誤
缺少字母
輸入至輸出:包括"someting" (缺少"h")一類的輸入錯誤
字母位置錯誤
輸入至輸出:包括"somehting" ("h"和"t")一類的輸入錯誤
整理
在輸出中:刪除多餘空格
無重複
在輸出中:避免在同一短語中連續重複單詞(如"deluxe deluxe tools")
無重複
在輸出中:刪除重複的短語(如出現兩個"power tools")
No permutations
In output: Remove permutated duplicate phrases (e.g. "power tools" and "tools power")
No whitespaces
In output: Remove all spaces, e.g. to fix domain name lists: "word1 word2 . com" = "word1word2.com"
建議相關
用輸入建議相關的短語
取消建議
顯示資訊
已"按下",以在讀取結果前顯示提示和警告
Add to output
Replace output
Clear input
Add to input
Replace input
Clear output
過濾
以字元數/詞數為根據接受短語
過濾
接受只含有過濾檔案中的字元的短語。
清除
移除沒有出現在文字中的片語
前置
輸入至輸出:複製和新增所有短語,並將以上檔案插入開頭
後置
輸入至輸出:複製和新增所有短語,並將以上檔案新增至末尾
" "
Input to output: Cover " " ... phrase match in Google Adwords
[ ]
Input to output: Cover [ ] ... exact match in Google Adwords
+
Input to output: Cover + ... modified broad match in Google Adwords
工具
輸入
輸出
分析
Reset data
關鍵字清單
快速範例
合併選項
輸入
輸出
圖形
工具
起止日期
搜尋引擎
Keyword phrase
網站
顯示資料並應用過濾
檢索與過濾條件相匹配的短語的所有資料(如未選擇短語,下拉式功能表將讀取所有可用資料)
自動更新資料
包括自該日期起的資料
包括截至該日期的資料
選擇搜尋引擎
選擇網站
設置是否顯示。選中=有資料時顯示。綠色=有可用資料。紅色=活動短語無對應資料。
Same as the other, but switches all items instead
Set whether to show. 勾選 = 有可用資料時顯示. 綠色 = has available data. 紅色 = has no data for active phrase.
Same as the other, but switches all items instead
更改圖形比例
在不同量表間切換(如正常和對數量表)
在圖形中顯示圖例
在不同模式間切換(如顯示和隱藏圖例)
在圖形中顯示標記
在不同模式間切換(如顯示和隱藏標記)
重設資料
現在建立
生成所選類型的網站地圖(如谷歌XML網站地圖)
生成所有
生成支持的所有類型的網站地圖
快速預設...
查看各種配置示例(可加快新項目的創建)
網站地圖檔路徑
網址選項
文檔選項
XML網站地圖選項
XML網站地圖擴展
HTML 樣板代碼與選項
Options
Code
待生成的網站地圖檔案類型
決定要生成的網站地圖的類型
XML網站地圖檔輸出路徑(谷歌創建的XML網站地圖協議)
Image XML 網站地圖檔輸出路徑
Video XML 網站地圖檔輸出路徑
Mobile XML 網站地圖檔輸出路徑
News XML 網站地圖檔輸出路徑
Code XML 網站地圖檔輸出路徑
RSS網站地圖檔輸出路徑
ROR網站地圖檔輸出路徑
Google Base 網站地圖檔輸出路徑
檔案網站地圖檔輸出路徑(每行一個網址)
範本網站地圖檔輸出路徑(通常為HTML或自訂格式)
ASP.net Web.sitemap檔輸出路徑(用於.Net導航控制)
連結專案描述
首選<title></title>
首選原始路徑
首選美化路徑
動檢測基於根路徑類型
美化路徑
將分隔符號轉換成空格
將第一個單詞的首字母大寫
將所有後續單詞的首字母大寫
自有清單中的目錄專案
忽略
項目(正常)
標題目錄
忽略
首選路徑
首選路徑(已連結)
首選標題(已連結)
首選路徑+標題(已連結)
設置網站地圖中用到的路徑選項
連結使用完全位址
覆蓋並轉換連結中使用的斜杠
佈局
每頁欄數
值大於1,連結將分佈於各欄
每頁連結數
0 表示所有連結均將位於第1頁
如果網站地圖中存在多個頁面,則在底部連結所有頁面
另一方法是顯示"開始"、"上一"、"所選"、"下一"和"最後"頁面
設置網站地圖中用到的根路徑
可用于諸如以下情況:掃描的是"http://localhost",而網站地圖針對的是"http://www.example.com"
將相對路徑新增至範本網站地圖中的"頁頭根連結"
在網站地圖中將"index.html" (http://example.com/index.hml)而非"" (http://example.com/)設為"根頁頭連結"
字元集和類型
總是將網站地圖檔儲存為UTF-8
選項僅對UTF-8為可選項的網站地圖類型有效,如HTML/範本網站地圖
用BOM儲存UTF-8網站地圖檔
位元組順序標記(BOM)選項僅在沒有標準規定是否包括BOM時有效
生成的網站地圖檔:包括含有以下回應代碼的網址:
生成的網站地圖檔:選項
刪除"網管"和"輸出"過濾中不包括的網址
刪除"輸出過濾"、"noindex"和"robots.txt"中不包括的網址
排序 URLs in sitemap after "importance" instead of "structure and alphabet"
排序 URLs in a way that mirrors "Analyze website"
包含 items with 回應代碼 "rcNoRequest" / "-1"
Items with this response code will only have text and no link in generated sitemap files
控制
為空目錄禁用"範本代碼"
有些情況下有用,比如避免<ul></ul> (未通過W3C HTML驗證)
啟用根標題"範本代碼"
若選中,"代碼:根標題..."將與"根目錄"一起插入"代碼:頁頭"之下
將網址和標題中的字元轉換成實體
"&"至"&amp;"、"<"至"&lt;"、">"至"&gt;"等
避免使用"極"<priority>和<changefreq>值
在將計算值轉換成穀歌XML網站地圖範圍時有效
覆蓋計算所得值
覆蓋優先順序
使用自動"優先順序"計算,或全部設為相同的值。減號"-"會刪除標籤。用作"更改頻率"的恢復項。
覆蓋更改頻率
使用自動"更改頻率"計算,或全部設為相同的值。星號"*"會刪除標籤。
用所選日期/時間覆蓋最後修改
使用自動"最後修改"計算,或全部設為相同的值。"重置"會將值設為"Dec 30th 1899",並刪除標籤。
重置
最後修改時區配置
Override the timezone part of the "LastMod" timestamps
用GMT時區修改值覆蓋
穀歌網站地圖檔選項
為驗證生成的網站地圖檔新增必要的XML
在網站地圖中包含"hreflang"替代網址
為生成的網站地圖檔生成Gzip副本
如果原始名稱為"sitemap.xml",則該"gzip"副本的名稱將為"sitemap.xml.gz"
Apply "minimize" to the generated sitemap files(s)
消除了大部分多餘的空白
XSL for XML sitemap files
XSL means "extensible stylesheet language". XSL can transform XML files so they become nicer looking in internet browsers
自動分割多個網站地圖檔前各網站地圖中的最大網址數
Google news sitemaps
發行者姓名
預設語言
Google image sitemaps
確認每張圖僅出現在清單一次
Create "image:caption" + "image:title" values *even* if no image "alt" or "title" attributes
Google video sitemaps
使用網頁的標題/描述取代視訊檔案的標題/描述
創建本機縮圖影像 when it is an advantage to do so
Useful if your website does not contain proper video 縮圖 images
確保每個視頻只列出一次
代碼:頁頭
代碼:頁腳開始
代碼:頁腳導航開始
代碼:頁腳導航結束
代碼:頁腳導航項位址開始
代碼:頁腳導航項地址結束
代碼:頁腳導航項標題開始
代碼:頁腳導航項標題結束
代碼:頁腳導航項分隔符號
代碼:頁腳結束
代碼:標題開始,目錄開始之前
代碼:標題結束,目錄開始之前
代碼:目錄開始
代碼:目錄結束
代碼:標題/目錄合併前
代碼:標題/目錄合併後
代碼:專案連結位址開頭開始
代碼:專案連結位址開頭結束
代碼:項目連結開始
代碼:項目連結結束
代碼:專案連結標題末尾開始
代碼:專案連結標題末尾結束
代碼:標題連結位址開頭開始
代碼:標題連結位址開頭結束
代碼:標題連結標題末尾開始
代碼:標題連結標題末尾結束
代碼:欄開始
代碼:欄結束
代碼:根標題開始
代碼:根標題結束
建立robots.txt
robots.txt檔路徑
建立robots.txt選項
基於排除的"crawl"和"清單"路徑過濾新增"禁止"網址
新增"XML網站地圖自動發現"
立即上傳
全部上傳
快速預設...
查看各種配置示例(可加快新項目的創建)
FTP選項
上傳進度
主機和埠編號
上傳目錄路徑
協定
If you select "ftps://" instead of "ftp://" please sure you have enabled OpenSSL in "General option"
連接模式
傳輸模式
帳號
密碼
在專案儲存和載入之間隱藏FTP密碼
新增常見的ping
查看各種配置示例(可加快新項目的創建)
立即Ping
Ping選項
Ping進度
ping的地址
有些服務只需具體位址即可支援通知
針對HTML與XML檔案,在文字與瀏覽器切換觀看
在文字編輯器中打開所選文件
在記事本中打開網頁
在IE中打開網頁
在FireFox中打開網頁
在Opera中打開網頁
在Safari中打開網頁
檔案資訊
路徑:
儲存版本:
日期資訊
新建的專案:
最後修改的專案:
動態説明
瀏覽內置瀏覽器(Internet Explorer),前往所選地址
在IE中打開頁面(可以改進瀏覽體驗)
在Firefox中打開頁面(可能改進瀏覽體驗)
在Opera中打開頁面(可能改進瀏覽體驗)
Open in Safari for better offline browsing
Open the page in Safari (may give a better viewing experience)
預設存儲檔案名
如果網址太長,無法作為檔案名儲存到磁片,則採用以下命名方式:"<default>0、<default>1、<default>2"等
轉換 URL extensions 在下載的內容裡
轉換成相對連結,以便在本地磁片上離線瀏覽檔
轉換成相對連結,以上傳至HTTP網路服務器/網站
無轉換
自動檢測基於根路徑類型
轉換連結
新建.html副檔名到網頁內容網址 (方便離線觀看)
下載使用的影像與相似的根據外部網域
工具路徑
網際網路爬網
路徑
一般選項
立刻建立
Search engine files: Directory path on disk
Search engine files: Search page file name
Search engine config: Override website root in files
If you scan your website at "http://localhost/", you can overwrite the "root" address used in the search engine files
Page is an "index" file (if so, the directory path is used for queries: "example.com/search/?search_p=phrase")
Kind of search engine to build
You can initiate a search through e.g. a <form> that calls "msa1_search.html?search_p=example"
If "search" is base then parameters format is: "search_p", "search_c" etc.
Results to show per page
Presentation and data in search results
Show "scores" in search results
Show "description" in search results
HTML structure used for presenting search results
Log searches to webserver statistics
Log all searches to server log files through an additional HTTP request: "msa1-logsearch.html?search_p=example"
Get
Website Download now : Download and store complete websites for later viewing. Perfect for researchers, travellers and dial-up users.
- Website download can be automated through command line.
- Can handle and find links in CSS as well as most Javascript files.
- Fast website downloader with options for connections, timeouts, crawler filters etc.
This language file is part of Website Download / Website Analyzer / Keyword Research / Sitemap Generator. All rights reserved. See legal.