地方におけるケアマネと情報化のかかわり

(その6)コストパフォーマンスとセキュリティー

ホームページを利用した情報提供システムにもいくつかの方法が考えられます。

種類
サービスプロバイダを利用したインターネット接続 OCNなど利用して自前のサーバを持つ 自前のサーバにリモートアクセスする
ネットワークの分類 WAN(インターネット) WAN(インターネット) WAN(イントラネット)
維持費用 安い(月2千円強と電話代) 高い(月4万円弱) 安い(電話代のみ)
維持管理の手間 簡単 簡単 専用の管理者必要
セキュリティー 不安 不安 ほぼ安心

コストパフォーマンスや維持管理の面で最も優れているのはISP(インターネットサービスプロバイダ)を利用することだと考えられます。ほとんどのISPは契約者のために5メガバイトくらいのホームページ用のスペースを無料で貸してくれます。たとえば私のこのウェブサイトの容量は1メガくらいですから、空き情報システムを構築するためには十分過ぎる容量です。

OCNやリモートアクセスは自前のサーバを持つことができますが、空き情報システムの場合メリットはあまりなさそうです。

セキュリティーに関してはインターネットは無いも同然です。ホームページに出した情報は誰でも覗くことができます。庭で着替えをするようなものですから覗かれても文句を言うわけにはいきません。しかし空き情報システムの場合はプライバシーに関する情報はありませんのでこの点については問題ないものと思います。ただくれぐれも個人の情報を載せないようにする注意が必要です。また最近のインターネットの検索システムは検索ロボットを使っていることが多いので、ホームページを作る際には検索ロボットがこないようにタグを入れておく必要があります。(gooなどのロボット型検索エンジンのホームページにタグの入れ方が出ています)。

もし電子メールで要介護者の情報をやり取りする場合はかならず暗号化すべきです。(Outlook Express のヘルプの【暗号化】に詳しく解説してあります。)サービス提供事業者のメールアドレスもホームページに載せてはいけません。迷惑メールがくる恐れがあります。

以上の点に注意すればインターネットを快適に使えることでしょう。

次のページへ


ロボットを排除するには

goo や HotBot,AltaVista などの検索サービスは,自動的に世界中のWebページを巡回してデータベースに登録しています。このような自動巡回ソフトのことをロボットといいます。

このような検索サービスはたいへん便利ですが,自分のページを検索サービスに登録したくない場合もあります。たとえば私的な予定表のページなどは,データベースに登録してもらっても,他の人の役に立つとは思えません。こういうページは,頭のところにロボット除けの護符を置いておきます。具体的には,<head> と </head> で囲まれたところのどこかに

<META name="robots" content="noindex,nofollow">
と書いておきます。<head> タグを省略している場合は, <body> より前,あるいはそれもなければ <h1> より前の適当なところに書いておきます。 noindex は「このページをデータベースに登録するな」という意味で, nofollow は「このページから先はリンクをたどるな」という意味です。
すべてのロボットがこの仕組みで退散してくれるわけではありませんが,少なくとも goo,HotBot は大丈夫のようです。

★サイト全体をロボット禁止にするなら,サイトのドキュメントルートディレクトリに robots.txt というものを置き,それに
User-agent: *
Disallow: /
←空行
と書いておきます。

--------------------------------------------------------------------------------

松阪大学 奥村晴彦様 okumura@matsusaka-u.ac.jp のHPより転載  戻る