• 關於我們
  • 服務項目
  • 商品總覽
  • 部落格
  • 最新消息
  • 聯絡我們
  • 關於我們
  • 服務項目
  • 商品總覽
  • 部落格
  • 最新消息
  • 聯絡我們
  • 文章總覽
  • 分類
  • 哲學與觀點 (47)
  • 職場二三事 (51)
  • 生活二三事 (42)
  • 職場故事 (3)
Apps行銷 (0) 想法 (2) 理念 (3) 自由 (2) 大阪 (1) 旅遊 (1) 旅遊規劃 (1) marketing (0) 行銷 (3) 12強冠軍 (0) team taiwan (0) robots.txt (1) 人生 (1) Philosophy (1) 價值 (3) 商業模式 (2) 服務 (2) 產品 (1) 品牌 (3) 客群 (2) 客群分析 (2) 社群 (3) 網路行銷 (3) SEO (1) SNS (2) 資訊架構 (1) 台灣鍵盤趴 (1) 老貓 (1) 鍵盤 (1) 下午茶 (1) 港式 (1) 祥發港式茶餐廳 (1) 美食 (1) 茶餐廳 (1) 西門町 (1) 創業 (3) 創新 (2) 商模 (2) 憤怒鳥 (1) 成功 (1) 企業 (1) 投資 (1) 管理 (2) 角色 (1) 責任 (1) 攝取 (2) 減肥 (4) 運動 (2) 飲食 (2) 傳遞 (1) 媒體壟斷 (2) 理論 (1) 資訊 (1) UX (2) 教育 (4) 設計 (1) 賈伯斯 (1) diet (1) 健康 (2) 飲食控制 (1) 孩子 (2) 遊戲 (4) 備份 (1) apps (1) LINE (1) 22k (1) 心情 (1) 抒發 (1) 反媒體壟斷 (2) 自尊 (1) 自重 (1) 道德 (1) 媒體 (1) 臥軌 (1) 關廠工人 (1) 影評 (1) 悲慘世界 (1) 電影 (1) game (1) gungho (1) 平衡距 (1) 社群黏著度 (1) 門檻 (1) experience (1) iPad2 (1) education (1) 雜談 (1) Easy Taxi (1) UBER (1) 破壞式創新 (1) 柯P (1) 柯P 意思 (1) 柯P 為什麼 (1) 柯文哲 (1) 連勝文 (1) 會議 (1) 開會 (1) 領導 (1) 威力彩 (1) 樂透彩 (1) metaether (1) metaverse (3) 元乙太 (1) 元宇宙 (2) Discord (1) NFT (2) pixel (1) pocket operator (1) 權威距離指數 (1) 創意 (1) 紀律 (1) Foodpanda (2) 回顧 (2) 新創 (1) emotional labor (1) 情緒勞動 (1) AI浪潮 (1) 人工智慧 (1) 技術變革 (1) 生成式AI (1) 關鍵字思維 (1) 悟空 (1) 遊戲市場 (1) 黑悟 (1) 黑神話 (1) 黑神話悟空 (1) 成就 (1) 挑戰 (1) 鬥嘴 (1) 負面行銷 (1) AI (1) cuboai (1) 公關 (1) 經理人 (1) 職場 (1) 職業素養 (1)
  1. 首頁
  2. 部落格
  3. robots.txt與搜尋引擎收錄結果

robots.txt與搜尋引擎收錄結果

2012 Nov 01 未分類

(本文故事為真實發生,惟須保障當事人權益,所有名稱皆為虛構。) 那是一個下著大雨的午後,有某間公司收到客戶投訴,說搜尋引擎所搜尋到的結果,點進去卻到了錯誤的頁面 由於某公司略有一點規模,所以客服就照著SOP流程把需求送到了「行銷部負責網站設計的人員」手上 但是再怎麼管網站設計,也管不了搜尋引擎是怎麼搜尋的,看了看,發現在搜尋結果的主網址後面多了兩碼:

http://大公司.com   →    http://大公司.com/gj

多了一個詭異的gj,自然就導到404頁面,但是親愛的,你,負責的是網站設計,怎麼去改變搜尋引擎收錄結果呢?   [title]搜尋蜘蛛[/title] 搜尋引擎因為要經常保障搜尋到的內容是最新的,所以日夜不停地有一種機器人,在爬所有的網站內容,我們匿稱其為「搜尋蜘蛛」 有時候,當我們在網站內容裡加了一些測試的內容,以這個案例來說就是/gj 資料夾,會不小心被蜘蛛爬到 他會非常盡責地將新內容收錄到搜尋結果內,並且查看此內容SEO的狀態 極少的可能性,只有當資料夾名稱和服務內容高度相關時,會像這個案例一樣,被推到搜尋結果的頂端 造成了嚴重的導向錯誤,這時候你怎麼改也是沒有作用的,因為決定權在搜尋引擎身上。 (順帶一提,原來用不同瀏覽器會看到不同搜尋結果,想必GOOGLE對於瀏覽器的分類結果也已經做到很完整)   [title]robots.txt[/title] 不要怕,冷靜下來去看根目錄,會發現一隻和藹可親的檔案叫做robots.txt,可千萬不要把它當作種進網站的木馬了唷~~ robots.txt是你用來與搜尋引擎的蜘蛛溝通的文件,他規定了搜尋蜘蛛「那些你可以看、那些你不可以看」 主要的code有三段:
  • User-agent: [name_spider] (通常以*表示全部的搜尋引擎)
  • Allow: [/name_folder/]        (通常以/表示根目錄)
  • Disallow: [/name_folder/]
  分別用來規定搜尋蜘蛛的種類,允許搜尋的內容,與不給搜尋的內容。 以這個案例來說,只要加上 Disallow: /gj/  就可以囉~~   [title]後話[/title] 我個人覺得比較不可思議的是,這樣的事情該公司的IT不會解決,最後要由一個非相關人員尋找外部資源來搞定... 只能說越大的公司越恐龍啊....
  • robots.txt
  • 分享此文章
0則留言

相關文章

電玩何辜?別再讓血流更多。

  • 2014 May 23

黃色小鴨:從裝置藝術到行為藝術

  • 2013 Dec 24

Chat GPT作為 OpenAI 改變世界的開端,未來最有價值的五種能力

  • 2022 Dec 10

他收垃圾,不是垃圾;感謝、尊重、做好自己

  • 2013 Mar 11

影展推薦:假戲真做的《漂流古巴》

  • 2013 Feb 06

從資本的角度來看「社群為何滾動?」

  • 2015 Jun 25

關於我們

聯絡我們

  • 隱私權政策
COPYRIGHT© All rights reserved | Powered by 路老闆