自分のサイト状況を確認できる google search console という便利ツールがある。
そこをみてると、sma●●twings●ravels.●● というサイトから万の単位でリンクされていた。
調べてみるとどうやらフィッシングサイトらしい。
もちろん自動化されているのだろうが、一体相手さんにとってどういうメリットがあるのだろう
こちらもフィッシングサイトに劣らずいかがわしいサイトなのだ。いかがわしさ比べでもしようという魂胆なのか。
とはいえ煩わしいので、これまた google さんが用意してくれている気に入らぬ外部サイトを拒否できるツールを使って排除するようにした。
やり方は google search console からダウンロードできる外部リンクサイトの一覧から煩わしいサイトの URL もしくは domain を記述して、そのファイルをgoogleさんにふたたびアップすれば、よきにしてくれる。
さっそくダウンロードしたのだが、外部リンクはほかにもまっとうなサイトからのものもある。それを除外しないと、そのリンクまで排除されてしまう。
手作業でやると膨大な手間がかかるので、ruby で書いてみた。
require ‘Fileutils’
lines = []
File.open(“link.txt”, “r”) do |f|
f.each_line do |l|
if(l.include?(‘sma●●twings●ravels.●●’))
l.sub!(/.2022.*/m, “”)
lines.push(l)
end
end
end
f = File.open(“link_deny.txt”,”w”)
lines.each do |l|
f.puts(l)
end
とりあえずできたものをアップして終了。
でもこのスクリプト、100%合ってるのか?
まぁ、これで いかがわしさでは sma●●twings●ravels.●●
さんに勝ったな、たぶん。