外部リンク

自分のサイト状況を確認できる google search console という便利ツールがある。
そこをみてると、sma●●twings●ravels.●● というサイトから万の単位でリンクされていた。
調べてみるとどうやらフィッシングサイトらしい。

もちろん自動化されているのだろうが、一体相手さんにとってどういうメリットがあるのだろう

こちらもフィッシングサイトに劣らずいかがわしいサイトなのだ。いかがわしさ比べでもしようという魂胆なのか。

とはいえ煩わしいので、これまた google さんが用意してくれている気に入らぬ外部サイトを拒否できるツールを使って排除するようにした。

やり方は google search console からダウンロードできる外部リンクサイトの一覧から煩わしいサイトの URL もしくは domain を記述して、そのファイルをgoogleさんにふたたびアップすれば、よきにしてくれる。

さっそくダウンロードしたのだが、外部リンクはほかにもまっとうなサイトからのものもある。それを除外しないと、そのリンクまで排除されてしまう。
手作業でやると膨大な手間がかかるので、ruby で書いてみた。

require ‘Fileutils’

lines = []
File.open(“link.txt”, “r”) do |f|
 f.each_line do |l|
  if(l.include?(‘sma●●twings●ravels.●●’))
   l.sub!(/.2022.*/m, “”)
   lines.push(l)
  end
 end
end

f = File.open(“link_deny.txt”,”w”)
lines.each do |l|
 f.puts(l)
end

とりあえずできたものをアップして終了。
でもこのスクリプト、100%合ってるのか?

まぁ、これで いかがわしさでは sma●●twings●ravels.●●
さんに勝ったな、たぶん。