Увидеть главную страницу

 

Л. Ф. Куликовский, В. В. Мотов - Теоретические основы информационных процессов.

Краткое описание книги:

Дано понятие информационного процесса и его составляющих в рамках функционального и эволюционного подходов. Рассмотрены математические методы и модели, используемые для представления сигналов и процессов передачи, обработки, хранения н поиска информации, приведены примеры реализации информационных процессов техническими системами.

 

В состав книги входят следующие разделы:

1. Концептуальные основы информационных процессов

1.1. Ленинская теория отражения как методологическая основа науки об информационных процессах

1.2. Информация: виды и свойства

1.3. Семиотические аспекты информационных процессов

1.4. Развитие информационных процессов в ходе эволюции живой материи

2. Детерминированные математические методы теории информационных процессов

2.1. Теоретико-множественные методы

2.2. Основные понятия теории графов

2.3. Оптимизация на графах

2.4. Методы математической логики

2.5. Алгебраические методы

3. Теоретико-вероятностные методы теории информационных процессов

3.1. Случайные величины и процессы

3.2. Цепь Маркова

3.3. Многошаговые переходные вероятности

3.4. Классификация состояний

3.5. Эргодические цепи Маркова

3.6. Дискретный марковский процесс с непрерывным временем

3.7. Пуассоновский поток случайных событий

3.8. Уравнения Колмогорова

3.9. Эргодические марковские процессы с непрерывным временем

3.10. Случайные процессы общего типа

3.11. Спектральное представление стационарного случайного процесса

3.12. Интервал корреляции и эффективная ширина спектра стационарного случайного процесса

4. Сигналы и их математические модели

4.1. Сигналы и системы передачи информации

4.2. Математические модели сигналов

4.3. Векторное n-мерное пространство

4.4. Метрические пространства

4.5. Линейные векторные пространства

4.6. Нормированные пространства

4.7. Скалярное произведение векторов

4.8. Ортогонализация базиса линейного пространства

4.9. Представление сигналов в линейных пространствах

5. Количественная оценка информационного содержания сигнала

5.1. Энтропия дискретного сигнала

5.2. Энтропия зависимых сигналов

5.3. Энтропия непрерывных сигналов

5.4. 8-Энтропня

5.5. Сигналы со многими степенями свободы. Квантование сигналов по уровню

5.6. Дискретизация сигналов по времени. Теорема Котельникова

5.7. Скорость создания информации непрерывными источниками

6. Передача информации

6.1. Непрерывный канал связи и его характеристики

6.2. Модуляция и демодуляция

6.3. Форма сигналов в непрерывном канале

6.4. Кодирование сообщений в дискретном канале

6.5. Эффективное кодирование. Передача информации по дискретному каналу без шума

6.6. Передача информации по дискретному каналу с шумом

6.7. Передача информации по непрерывному каналу

7. Помехоустойчивое кодирование

7.1. Кодовое пространство

7.2. Модели ошибок

7.3. Обнаружение ошибок

7.4. Избыточность кода и коэффициент повышения верности

7.5. Исправление ошибок

7.6. Матричное представление (n. k)-кодов

7.7. Каноническая форма порождающей матрицы (n, k)-кода

7.8. Код Хэмминга

7.9. Циклические коды

8. Обработка информации

8.1. Цели, задачи и виды обработки информации

8.2. Формализованная модель обработки информации

8.3. Задача обнаружения сигнала

8.4. Сжатие и адаптивная дискретизация сигналов

8.5. Переработка текстовой информации

9. Хранение и поиск информации

9.1. Общие принципы хранения информации

9.2. Модели внешнего мира и их представление в ЭВМ

9.3. Структуры данных и структуры хранения

9.4. Информационный поиск. Информационно-поисковые системы

 

СКАЧАТЬ

 

Увидеть главную страницу

 

Hosted by uCoz