Тематический блок «Информация и ее кодирование»
Кодификатор  Кодирование текстовой информации. Кодировка ASCII . Основные используемые кодировки кириллицы 1.1.8 А1 Представление числовой информации. Сложение и умножение в разных системах счисления 1.1.7 А4, А5, В1 Скорость передачи информации и пропускная способность канала связи 1.1.6  В5 Язык как способ представления информации. Процесс передачи информации. Виды и свойства источников и приемников информации. Сигнал, кодирование и декодирование, причины искажения информации при передаче 1.1.5 А13 Единицы измерения количества информации. Числовые параметры информационных объектов и процессов: объем памяти, необходимый для хранения информации, скорость обработки информации 1.1.4  А3 Методы измерения количества информации: вероятностный и алфавитный 1.1.3  А2 Язык как способ представления и передачи информации 1.1.2 Различные подходы к определению понятия «информация». Виды информационных процессов. Информационный аспект в деятельности человека; информационное взаимодействие в простейших социальных, биологических и технических системах 1.1.1 Информация и ее кодирование 1.1 ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ И СИСТЕМЫ (25 %) 1 Элементы содержания, проверяемые заданиями КИМ Код контролируемого элемента Код блока
Содержательное обобщение изученного материала Методы измерения количества информации: вероятностный и алфавитный Кодирование текстовой информации. Кодировка ASCII . Основные используемые кодировки кириллицы Единицы измерения количества информации. Числовые параметры информационных объектов и процессов: объем памяти, необходимый для хранения информации, скорость обработки информации Представление числовой информации. Сложение и умножение в разных системах счисления Язык как способ представления информации. Процесс передачи информации. Виды и свойства источников и приемников информации. Сигнал, кодирование и декодирование, причины искажения информации при передаче Скорость передачи информации и пропускная способность канала связи
Информацию нельзя строго определить, ее можно измерить (задать числом). Такой единицей измерения  является 1 бит. С точки зрения  вероятностного подхода   один бит  — это количество информации, уменьшающее неопределенность знания о предмете в два раза.  При  алфавитном подходе   один бит  — это количество информации, которое можно передать в сообщении, состоящем из одного двоичного знака (О или 1). Вероятностный подход к измерению информации: Информация — это снятая неопределенность(по Шеннону).  Величина  неопределенности  некоторого события — это количество возможных результатов (исходов) данного события.  Для того чтобы измерить количество информации в сообщении, надо закодировать сообщение в виде последовательности нулей и единиц наиболее рациональным способом, позволяющим получить самую короткую последовательность.  Длина  полученной  последовательности  нулей и единиц и  является мерой количества информации  в битах. Формула Хартли   2 i  = N ,  i =log 2 N  (применима для равновероятных событий, т.е. когда выбор любого элемента из множества, содержащего  N  элементов, равнозначен.) .  Формула Шеннона   i =log 2 (1/P) , где  P = K/N  ( применима   при не равновероятных   событиях ( K- количество случившихся событий, а  N  – общее количество возможных исходов какого-то процесса, а Р- вероятность события)) .  1.1.3 Методы измерения количества информации: вероятностный и алфавитный
Алфавитный подход к измерению информации:  Любое сообщение (любые данные) можно закодировать с помощью конечной последовательности символов некоторого алфавита. Алфавит  — упорядоченный набор символов, используемый для кодирования сообщений на некотором языке. Мощность алфавита  — количество символов алфавита. При алфавитном подходе к измерению информации информативность сообщения определяется мощностью алфавита, с помощью которого записано сообщение, и количеством символов, составляющих сообщение. I  = i *  K ,  2 i  = N .  Чтобы определить объем информации в сообщении при алфавитном подходе, нужно последовательно решить задачи:  1. Определить  количество информации   ( информационный вес символа )  i   в одном символе по формуле  2 i  = N , где  N — мощность алфавита . 2. Определить  количество символов в сообщении ( K).   3. Вычислить объем информации по формуле:  I  = i *  K   . «Компьютерный» алфавит чаще всего содержит 256 символов, что дает информативность каждого символа 8 битов. Задачи ЕГЭ 1.1.8  Кодирование текстовой информации. Кодировка ASCII . Основные используемые кодировки кириллицы При   кодировании информации для технических устройств важное значение имеют алфавиты, состоящие всего из двух знаков- двоичные. Чем меньше знаков в алфавите, тем большее их количество требуется для кодирования, следовательно, тем больше длина передаваемого кода. Если имеется алфавит из  R  знаков и используется код с постоянной длиной n, то можно получить  M=Rn  различных состояний. Знаками двоичного алфавита можно закодировать 2n различных состояний. 1 килобайт (1 Кб) = 2 10  байт = 1024 байт; 1 мегабайт (1 Мб) = 2 20  байт = 1024 Кб; 1 гигабайт (1 Гб)  = 2 30  байт = 1024 Мб; 1 терабайт (1 Гб)  = 2 40  байт = 1024 Гб 1024 512 256 128 64 32 16 8 4 2 i  =  N 10 9 8 7 6 5 4 3 2 i 2 байта 65536 UNICODE 1 байт 256 КОИ-8 1 байт 256 ASCII  Информационный объем Кол-во символов в алфавите  Кодировка
Представление числовой информации. Сложение и умножение в разных системах счисления Числовая информация была первым и долгое время единственным видом информации, который обрабатывали ЭВМ.  Поэтому в современном ПК существует большое разнообразие типов именно для числовой информации. Перевод чисел из А 10  -> А 2 , А 4 , А 8 , А 16 Перевод правильной десятичной дроби Перевод целого числа десятичной дроби Перевод чисел из А 2 , А 4 , А 8 , А 16  -> А 10 Сводная таблица переводов целых чисел из одной системы счисления в другую   Развернутая форма записи числа

Sem 27 02 09 4

  • 1.
  • 2.
    Кодификатор Кодированиетекстовой информации. Кодировка ASCII . Основные используемые кодировки кириллицы 1.1.8 А1 Представление числовой информации. Сложение и умножение в разных системах счисления 1.1.7 А4, А5, В1 Скорость передачи информации и пропускная способность канала связи 1.1.6 В5 Язык как способ представления информации. Процесс передачи информации. Виды и свойства источников и приемников информации. Сигнал, кодирование и декодирование, причины искажения информации при передаче 1.1.5 А13 Единицы измерения количества информации. Числовые параметры информационных объектов и процессов: объем памяти, необходимый для хранения информации, скорость обработки информации 1.1.4 А3 Методы измерения количества информации: вероятностный и алфавитный 1.1.3 А2 Язык как способ представления и передачи информации 1.1.2 Различные подходы к определению понятия «информация». Виды информационных процессов. Информационный аспект в деятельности человека; информационное взаимодействие в простейших социальных, биологических и технических системах 1.1.1 Информация и ее кодирование 1.1 ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ И СИСТЕМЫ (25 %) 1 Элементы содержания, проверяемые заданиями КИМ Код контролируемого элемента Код блока
  • 3.
    Содержательное обобщение изученногоматериала Методы измерения количества информации: вероятностный и алфавитный Кодирование текстовой информации. Кодировка ASCII . Основные используемые кодировки кириллицы Единицы измерения количества информации. Числовые параметры информационных объектов и процессов: объем памяти, необходимый для хранения информации, скорость обработки информации Представление числовой информации. Сложение и умножение в разных системах счисления Язык как способ представления информации. Процесс передачи информации. Виды и свойства источников и приемников информации. Сигнал, кодирование и декодирование, причины искажения информации при передаче Скорость передачи информации и пропускная способность канала связи
  • 4.
    Информацию нельзя строгоопределить, ее можно измерить (задать числом). Такой единицей измерения является 1 бит. С точки зрения вероятностного подхода один бит — это количество информации, уменьшающее неопределенность знания о предмете в два раза. При алфавитном подходе один бит — это количество информации, которое можно передать в сообщении, состоящем из одного двоичного знака (О или 1). Вероятностный подход к измерению информации: Информация — это снятая неопределенность(по Шеннону). Величина неопределенности некоторого события — это количество возможных результатов (исходов) данного события. Для того чтобы измерить количество информации в сообщении, надо закодировать сообщение в виде последовательности нулей и единиц наиболее рациональным способом, позволяющим получить самую короткую последовательность. Длина полученной последовательности нулей и единиц и является мерой количества информации в битах. Формула Хартли 2 i = N , i =log 2 N (применима для равновероятных событий, т.е. когда выбор любого элемента из множества, содержащего N элементов, равнозначен.) . Формула Шеннона i =log 2 (1/P) , где P = K/N ( применима при не равновероятных событиях ( K- количество случившихся событий, а N – общее количество возможных исходов какого-то процесса, а Р- вероятность события)) . 1.1.3 Методы измерения количества информации: вероятностный и алфавитный
  • 5.
    Алфавитный подход кизмерению информации: Любое сообщение (любые данные) можно закодировать с помощью конечной последовательности символов некоторого алфавита. Алфавит — упорядоченный набор символов, используемый для кодирования сообщений на некотором языке. Мощность алфавита — количество символов алфавита. При алфавитном подходе к измерению информации информативность сообщения определяется мощностью алфавита, с помощью которого записано сообщение, и количеством символов, составляющих сообщение. I = i * K , 2 i = N . Чтобы определить объем информации в сообщении при алфавитном подходе, нужно последовательно решить задачи: 1. Определить количество информации ( информационный вес символа ) i в одном символе по формуле 2 i = N , где N — мощность алфавита . 2. Определить количество символов в сообщении ( K). 3. Вычислить объем информации по формуле: I = i * K . «Компьютерный» алфавит чаще всего содержит 256 символов, что дает информативность каждого символа 8 битов. Задачи ЕГЭ 1.1.8 Кодирование текстовой информации. Кодировка ASCII . Основные используемые кодировки кириллицы При кодировании информации для технических устройств важное значение имеют алфавиты, состоящие всего из двух знаков- двоичные. Чем меньше знаков в алфавите, тем большее их количество требуется для кодирования, следовательно, тем больше длина передаваемого кода. Если имеется алфавит из R знаков и используется код с постоянной длиной n, то можно получить M=Rn различных состояний. Знаками двоичного алфавита можно закодировать 2n различных состояний. 1 килобайт (1 Кб) = 2 10 байт = 1024 байт; 1 мегабайт (1 Мб) = 2 20 байт = 1024 Кб; 1 гигабайт (1 Гб) = 2 30 байт = 1024 Мб; 1 терабайт (1 Гб) = 2 40 байт = 1024 Гб 1024 512 256 128 64 32 16 8 4 2 i = N 10 9 8 7 6 5 4 3 2 i 2 байта 65536 UNICODE 1 байт 256 КОИ-8 1 байт 256 ASCII Информационный объем Кол-во символов в алфавите Кодировка
  • 6.
    Представление числовой информации.Сложение и умножение в разных системах счисления Числовая информация была первым и долгое время единственным видом информации, который обрабатывали ЭВМ. Поэтому в современном ПК существует большое разнообразие типов именно для числовой информации. Перевод чисел из А 10 -> А 2 , А 4 , А 8 , А 16 Перевод правильной десятичной дроби Перевод целого числа десятичной дроби Перевод чисел из А 2 , А 4 , А 8 , А 16 -> А 10 Сводная таблица переводов целых чисел из одной системы счисления в другую Развернутая форма записи числа