Arcanis 的部落格

http://我的名字.tw

  來自奇摩的新聞~其實也不算什麼新聞了啦...想說SLS應該要有這類的文章在所以po上來給大家看看,一些以後大家可能常用的域名應該都被申請走了,如:"馬英九"、"陳水扁"、"5566"、"中國"這些的,不知道先拿走「鴻海」、「台塑」以後有沒有機會被人花大錢購入...試了一下:
  
  馬英九.tw會被牽引到http://president.ma/ 
  陳水扁...為什麼會被牽到阿帕契啊...
  5566會連結失敗
  中國被設為保留字  

  其他的給大家自己去試試看吧!想賭一下等日後賺一把的也可以趁機申請一下,當個網路蟑螂...
  (這樣鼓勵似乎不太好...)

新聞來源網址:http://tw.news.yahoo.com/article/url/d/a/081121/35/19v2f.html

目標網址:http://我的名字.tw/

※以下為新聞內文:

  擁有個人的電子郵件帳號不稀奇,擁有個人的部落格不稀奇,那有沒有個人化的中文網域名稱呢?這個才酷。有沒有想過有一天跟網友說,歡迎參觀我的個人網址是:http://李xx.tw,這就是「個人化中文域名」,別以為網址一定只能打英文,現在也可以申請中文化的個人網域名稱囉。

  財團法人台灣網路資訊中心從今年10月分就推出「一個人、一個.tw」的個人化中文網域名稱的特惠活動,可以讓網友們以特惠價第一年新台幣99元的費用,註冊個人的中文網域名稱。原本個人化的中文網域名稱,一年收費要800元新台幣,為了要加強推廣,讓網友們在華文網路世界裡都可以擁有一個專屬於個人識別的網域名稱,特別推出三個月的優惠價方案。

  在國外,很多熱門的英文網域名稱一旦被註冊走了,將來可能成為炙手可熱的增值網域,因為網域名稱並不一定等於商標名稱,例如蘋果電腦的英文商標名稱為Apple,但是若有人事先就註冊並購買了apple.com的網域名稱,蘋果電腦若也想要以apple.com出現在網址上,就必須和事先已註冊的人協商才能取回。由於網域名稱採「先登記,先發給」的制度,也就等於說先搶先贏,因此常有人專門在投資有價值的網域名稱。

  個人名字也一樣熱門,像是知名影星茱莉亞羅伯茲、知名歌手席琳迪翁、史提夫汪德等名字都曾被別人註冊走,甚至瑪丹娜的名字還曾被色情網站註冊,為了維護形象,最後都要透過網域名稱爭議處理機制解決。

  「個人化中文域名」申請時要特別注意,申請人必須根據中華民國身分證上的中文名字進行申請,並且註冊人的姓名需要取名與個人網域名稱相同,例如身分證上寫的名字是王小明,那麼所申請註冊的「個人化中文域名」就是:「http://王小明.tw」。

  而這項註冊「個人化中文域名」第一年99元的優惠活動只到今年的12月31日為止,因此,如果認為自己的名字很特別,又或者是個大眾化的菜市場名,還是你跟某大歌星、明星同名同姓,假使你也叫蔡依林的話,那趕快去註冊個人化的中文網域名稱,如果這個中文名字還沒被註冊走,說不定將來蔡依林的唱片公司會來找你買網址呢。

期末專題

碩一 497516020 李宗熹

主題:Reputation (未定)

問題:
  針對目前各評價機制的部分, 能否利用其他消退因素進行消退, 以建立完整的評價機制? 

動機: 
  接續陳逸州學長的論文「A Reputation Mechanism based on Category and Time」, 目前先打算研究消退機制的部分. 由於自己對於這方面的背景還不夠多, 所以暫時打算先多看幾篇paper, 了解其他人研究方式與做法再決定要如何著手進行.
  之前學長提出了評價可因時間門檻值, 而影響評價值的消退. 針對這一點, 自己想看看能否以不同的角度來進行消退的動作, 不論是結合之前的funtion或是提出新的funtion, 針對消退因素部分:
  1. 根據前後兩次交易時間
  2. 根據平均交易時間提出funtion, 計算當做為門檻
  3. 根據交易物的稀有程度, 評估消退係數
  4. 根據使用者平均月收入與交易金額比例
  5. 根據前後兩次交易金額

  大致想針對這些方向著手, 在研究過相關論文後, 並與老師討論其可行性再進行作法、相關工具使用、方法研究的設計.(雖然好像晚了一點)

Lab I2 Demo & Report

  ※系級: 資工碩一     學號: 497516020    姓名: 李宗熹
  ※範例:Counting the Words in a Feed

  
  檔名:generatefeedvector.py

 

    

  ※執行結果:


  一開始先到python官方網站下載了2.6版,雖然書內沒有附上程式碼光碟,但去網路搜尋一下或是O'Reilly網站即可找到。在GUI介面下先開啟了generatefeedvector.py,發現裡面有import feedparser"的字樣,就再去抓了feedparser下來丟進lib裡面。

DP_AS1_4

(GUI介面) 

  設定好路徑後,cmd介面下執行generatefeedvector.py檔案,一開始常會跑出 Failed to parse feed的情況發生,這點到目前為止還不清楚原因~先刪除了大部分的list之後再次執行,以list中的其中一筆feed當作測試:

  
  測試的
feed: http://feeds.feedburner.com/37signals/beMH 

 

  

  其結果產生了"NewsBusters.org - Exposing Liberal Media Bias"的字樣,並於執行檔資料夾中產生了「blogdata1.txt」的txt檔,內含「Blog Signal vs. Noise

的字樣,將feed連結丟入網址列,確認feed與執行結果是符合的。測試成功!

DP_AS1_5

(feedlink的網頁)

   再來就用所有的list放著讓他跑了約10分鐘左右. . . 雖然還是有Failed to parse feed的情況發生,這應該是原本的feed本身的問題。放了約10分鐘終於讓它跑完,在cmd的結果列出了數十筆部落格名稱,都是對照list裡面的feed所對應的部落格名稱。

DP_AS1_3

(cmd執行結果)

   執行過程中,此範例會抓取部落格中特定字出現的頻率,再將抓取的結果另外儲存於文字檔中。再次開啟blogdata1.txt,發現裡面不再只是單純的文字,還包含了各個部落格內容的訊息,直行為部落格名稱與各欄位名稱,欄位所表示的數字似乎是某字詞在該部落格所出現的字數,而每列則為該部落格所對應的數字,東西太多也不知道該如何講起,就先附上簡圖大致了解一下。 (最後其實可以發現blogdata1.txt所跑出來的資料結構與原始碼內含的blogdata.txt資料大致相同,應該是作者的用心)

DP_AS1_2

(blogdata1.txt內容)

  ※心得:
  第一次接觸python這個東西,雖然老師在暑假就已經先說過叫我們要先去摸一下,但還是遲遲沒有去玩看看,實在很心虛。在第一個作業中就遇到了很多問題,卡了很久好不容易才弄出一個結果。原本在試跑generatefeedvector.py途中,常有Failed to parse feed的字樣發生,還以為是自己哪裡沒弄好或沒設好,經猴賽雷提醒才先試著將list中大部分的feed刪掉,先測試範例能不能跑出最簡單的字樣,再來針對所有的feedlist測試。還好最後有弄出結果~

  剛灌好python時,就去開了他的GUI來用,感覺一整個很怪,而且似乎就只是把cmd換成白底而已,介面很難用上手,之後可能要多花一些時間在這塊上面才行。

 

頁面