ВВЕДЕНИЕ В ИНФОРМАТИКУ;?

Информатика — это техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

ОБЩИЙ СОСТАВ ПЕРСОНАЛЬНЫХ ЭВМ И ВЫЧИСЛИТЕЛЬНЫХ СИСТЕМ;

ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ ВЫЧИСЛИТЕЛЬНОЙ ТЕХНИКИ;

ОПЕРАЦИОННАЯ СИСТЕМА MICROSOFT WINDOWS.

Понятие информация является одним из фундаментальных в современной науке. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Если задаться целью формально определить понятие «информация», то сделать это чрезвычайно сложно. Например, в математике также трудно дать определение понятиям «точка» или «прямая».

Все процессы в природе сопровождаются сигналами. Зарегистрированные сигналы образуют данные. Данные преобразуются, транспортируются и потребляются с помощью методов. При взаимодействии данных и адекватных им методов образуется информация. Информация – это динамический объект, образующийся в ходе информационного процесса. Он отражает диалектическую связь между объективными данными и субъективными методами. Свойства информации зависят как от свойств данных, так и от свойств методов.

Чаще понятию информация дают другое определение. Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Данные различаются типами, что связано с различиями в физической природе сигналов, при регистрации которых образовались данные. В качестве средства хранения и транспортировки данных используются носители данных. Для удобства операций с данными их структурируют. Наиболее широко используются следующие структуры: линейная, табличная и иерархическая – они различаются методом адресации к данным. При сохранении данных образуются данные нового типа – адресные данные.

Знания связаны с данными, основываются на них и представляют результат мыслительной деятельности человека, обобщая его опыт.

Информацию мы получаем всевозможными способами: обмен информацией между людьми в процессе разговорного общения, печатные издания, различные средства коммуникации – радио, телефон, телевидение, компьютер (рис. 1.3). Ежедневно человек накапливает определенное количество информации – некоторый опыт, являющийся важнейшим методом получения информации.

Рис. 1.3. Классификация методов получения информации

Существовал и до сих пор существует так называемый метод проб и ошибок. В настоящее время он называется эвристическим («эврика» – нашел). При эвристическом подходе проводятся многократные эксперименты, после которых отбирают наиболее удачные варианты. Этот метод длительный и трудоемкий.

Научный подход характеризуется тем, что производится не беспорядочный перебор всех возможных вариантов, а целенаправленный поиск. При проведении исследования на научной платформе изучают, анализируют все известные достижения в конкретной области, проводят опыты. В результате применения целенаправленного поиска люди создали новые материалы и процессы, неизвестные природе. Этому поиску способствует развитие современной науки, которая позволяет обрабатывать большие объемы информации и получать все новые и новые результаты.

Любая информация должна обладать рядом свойств. Информация должна быть достоверной. Смысл этого свойства заключается в определении, насколько данная информация соответствует истинному положению дел.

Информация должна быть полной. Это свойство характеризует количество информации и определяет достаточность данных для принятия решений или создания новых данных на основе имеющихся.

Свойство «актуальность» – это степень соответствия информации текущему моменту времени.

Информация должна быть выражена в таком виде, который был бы понятен получателю данной информации. В этом заключается следующее свойство информации – ясность.

От того, какие задачи можно решить с помощью данной информации, зависит ее ценность.

С позиции каждого отдельного человека количество информации, содержащейся в каком-либо сообщении, – субъективная величина. Объективная количественная мера информации может быть введена на основе вероятностной трактовки информационного обмена. Этот способ измерения количества информации впервые предложил в 1948 г. К. Шеннон. По К. Шеннону, информация – это сведения, уменьшающие неопределенность (энтропию), существовавшую до их получения.

Наименьшей единицей информации является бит (от англ. binary digit – двоичный разряд). Сообщение о том, что произошло одно из двух возможных событий, дает получателю один бит информации. Один бит информации получает человек, когда он узнает, опаздывает с прибытием нужный ему поезд или нет, был ночью мороз или нет, присутствует на лекции студент Иванов или нет и т.д.