図書館情報技術論 科目終末テスト(回答例)Q6~Q10
※設問の後ろのページ数は2018年度版テキストでの回答に使った参考ページです
※テスト課題は添削されていないので不正解の可能性もあります。あくまでも回答例です
※自分の勉強用にまとめただけのものなので誤字脱字あります
<設問>
Q6. データベースとデータベースシステムとの違いと関係について説明してください。⇒p.58-59
データベースシステムは、①データベース管理システム(DBMS)、②コンピュータ、③データベースファイルで構成されている。
データベースとは、「データや情報の集合物」と」「コンピュータで検索できる」という2つの条件を満たしているもので、データベースを記憶するファイルとデータベースを実行するプログラムの両者が必要である。
Q7. 図書目録をデータベース化することのメリットについて説明してください。
⇒p.60-61
目録データベースは、目録カードと比較して、5つのメリットがある。
- データの入力・記憶は1レコードにつき1回でよい
- データの追加は自由で、順番を気にする必要がない。
- コンピュータによるものなので高速検索が可能
- 様々な検索が可能
- 同時に複数の人が検索可能
- データの書き換え(変更・更新)がリアルタイムで可能
Q8. ロボット型サーチエンジンの長所と短所について説明してください。
⇒p.66-71
サーチエンジンは、①ディレクトリ型(カテゴリ型;人力で収集し、階層的に分類して検索できるようにしたシステム)、②ロボット型(自動的に網羅的に収集され、全文がデータベース化される)、③メタ型(一度のキーワード検索で複数のサーチエンジンに検索を行わせることができる。一括検索、横断検索、くし刺し検索。または渡り検索)の3つに分けられるが、現在はロボット型が主流である。
ロボット型サーチエンジンは、クローラがリンクをたどって芋づる式にウェブページを収集・データベース化するので、膨大な量のデータを収集することができるという長所がある。しかし、リンクされていないページや、深層ウェブなどクローラには収集できないウェブページもあるため、検索エンジンの収集方針や戦略によって、収集範囲にずれが生じる。
一方で、ロボット型サーチエンジンは、情報が膨大すぎるため、検索者の求める情報が記載されたウェブページが発見しにくいという短所もある。しかしこれも、前述の長所を生かし、データ収集の際にリンク数を集めることで、リンク数が多いほど適合しているとみなす「適合度順出力」を可能にしている。
Q9. サーチエンジンの適合度順出力の方法について説明し、その長所と問題点についても説明してください。⇒p.70-72
ロボット型サーチエンジンは情報量が膨大すぎるため、検索者のニーズに対応するため、検索結果の出力の仕方を「適合度順出力」にするなど工夫している。
初期の適合度順出力は、ページ内の検索キーワードの出現回数によって判断していたが、意図的に同じキーワードを多く入れると検索上位に表示されてしまうなどの問題が出てきた。
また、検索語と、サーチエンジン内に設けられた類語辞書内の類語を含めて検索する方法も使われたが、同様にウェブページに類語を意図的に多く入れられてしまう問題が発生した。
現在は、ウェブページ制作者が意図的に適合度をコントロールできないよう、リンク数を指標にしてランキングを行う「ページランク」というアルゴリズムが主流になっており、グーグルもこれを採用している。
なお、各サーチエンジンはリンク数に加えて、検索語の出現位置、ページ更新日時、参照履歴、リンク構造なども総合的に判断してランキングを決定しているので、検索者は必要に応じて複数のサーチエンジンを使い分けることも重要である。
Q10. アクセス管理技術がなぜ必要なのかについてまず説明し、次に個々のアクセス管理技術について説明してください。⇒p.83-85
情報システムのセキュリティを守るため、システムの脆弱性を排除する必要がある。脆弱性を排除するためには、情報セキュリティマネジメントを実施する必要があるが、このマネジメントでは、①気密性(情報を不当にみられるのを防止すること)、②完全性(情報が不当に破壊・改ざんされるのを防止すること)、③可用性(情報を継続的に安定して利用できる仕組みを作ること)が必要である。
このうち①気密性を守るのに必要なのがアクセス管理技術である。コンピュータの脆弱性をなくすにはウィルス対策ソフトによる対策なども重要だが、そもそも誰でも自由にアクセスできる環境を放置しておくのではなく、許可された利用者のみが情報にアクセスできるように管理する必要がある。
アクセス管理技術には、①ユーザー認証技術と、②アクセス制御技術がある。