Информация и самоорганизация

Информация и самоорганизация

⇐ ПредыдущаяСтр 9 из 12

Любая открытая информационная система эволюционирует так, что начиная с состояния наибольшей энтропии (неопределённости) стремится спиралеобразно к актуализации новых связей и отношений, к организованности и порядку в системе в процессе взаимоотношений со средой и перестройки структуры с целью уменьшения энтропии.

Пример. На телевизионной игре “Что? Где? Когда?” обсуждение вопроса часто начинается хаотично, спонтанно, независимо и в конце обсуждения может организоваться в единодушное принятие правильного решения.

Самоорганизация может наблюдаться и в неживых системах.

Пример. История развития ЭВМ — пример самоорганизации: от 1-го поколения ЭВМ (40-50-ые годы 19 века) с электронными лампами и быстродействием порядка 104 операций в сек. до 1-го поколения оптических ВМ (конец 90-ых годов) с голографической памятью, с логикой на потоках фотонов, нейроподобных архитектурах и быстродействием порядка 1012 операций в сек.

Пример. Человеческое общество развивается спиралевидно, циклически: циклически повторяются катастрофы, законы, неурожаи и т.п.

Любая деятельность вопреки эволюционным процессам в системе, вопреки принципам самоорганизации — вредна и противосистемна.

Пример. Любые экономические решения противоречащие основному регулятору рынка, основному механизму её организации — соотношению “спрос-предложение” приводят к вредным последствиям для системы, её самоорганизации, например, выпуск товаров в объёме, превышающем спрос на рынке может привести к снижению спроса.

Сформулируем основные аксиомы теории информационных динамических процессов (информационной синергетики).

Аксиома 1
Развитие (эволюция) системы определяется некоторой целью и информационными ресурсами системы, её информационной открытостью.


Аксиома 2
При стремлении к цели система воспринимает входную информацию, которая используется и для изменения внутренней структуры самой системы, внутрисистемной информации.

Аксиома 3
Изменение внутрисистемной информации происходит таким образом, чтобы увеличивалась негэнтропия системы, уменьшалась энтропия (мера беспорядка) в системе.

Аксиома 4
Любое изменение внутренней структуры системы или внутрисистемной информации оказывает воздействие на выходную информацию системы (т.е. на окружающую среду системы); внутренняя энтропия изменяет внешнюю энтропию системы.

Пример. Сформулируем, опираясь на эти аксиомы основные законы информационных динамических процессов в социально-экономических системах. Социально-экономические процессы при этом труднее поддаются математизации, информатизации из-за сложности, плохой формализуемости и плохой структурируемости этих систем (процессов).

Закон 1
Развитие любой социально — экономической системы определяется лишь целью и социально — экономико — информационными ресурсами системы.

Закон 2
При стремлении к цели любая социально-экономическая система воспринимает входную информацию, используемую и для изменения внутренней структуры системы, изменения внутрисистемной информации.

Закон 3
Изменение внутрисистемной информации происходит таким образом, чтобы уменьшалась энтропия (мера беспорядка) в социально- экономической системе.

Закон 4
Любое изменение внутренней структуры социально- экономической системы или внутрисистемной информации оказывает воздействие на выходную информацию, на окружающую среду, а система при этом ведёт себя так, чтобы уменьшить негативное влияние этих воздействий.

Важное значение при исследовании управляемости системы, её управляющих параметров, развития системы во времени, в пространстве, по структуре имеют синергетические принципы сформулированные И. Пригожиным и его последователями, в частности следующие:

  • принцип эволюции системы, необратимости процессов её развития;
  • принцип возможного решающего воздействия (при определенном стечении обстоятельств) малых изменений поведения системы на её эволюцию;
  • принцип множественности (или многовариантности) путей развития системы и возможности выбора оптимальных из них;
  • принцип невмешательства в процессы самоуправляемого развития и непредсказуемости эволюционного поведения системы и, в то же время, — учёт возможности организовать управляющие воздействий на ресурсы и процессы в системе;
  • принцип учёта стохастичности и неопределённости процессов (поведения систем);
  • принцип взаимовоздействия усложнения организации, устойчивости и темпов развития систем;
  • принцип учёта факторов стабильности и нестабильности системы (возникновения устойчивости из неустойчивого поведения), порядка и хаоса в системе (возникновения порядка из хаоса), определенности и неопределенности;
  • принцип взаимовлияния устойчивости среды отдельной подсистемы или элемента (микросреды) и процессов во всей системе (макросреды).

Наблюдаемая математизация и информатизация современной науки убедительно показывает, что их эффективность зависит как от данной науки, сложности и возможности описания её законов и принципов адекватными математическими и информационными моделями, так и от используемого математического аппарата.

3.6. Базовые (основные) новые информационные
технологии исследования и актуализации систем

Новые информационные технологии, наиболее часто используемые системах различного типа и назначения:

  • математическое и компьютерное моделирование;
  • базы данных и знаний;
  • экспертные и интеллектуальные системы;
  • средства, технологии планирования и управления с помощью электронных таблиц;
  • электронная почта и телекоммуникационные средства;
  • автоматизированные системы (обучения, контроля, управления и т.д.), АРМы и интеллектуальные системы управления;
  • компьютерные офисы и виртуальные корпорации;
  • интегрированные пакеты прикладных программ и среды;
  • средства, методы и технологии машинной графики и анимации;
  • средства, методы и технологии мультимедиа;
  • гипертекстовые технологии и WWW-технологии;
  • технологии информационного реинжиниринга, в частности технологии «клиент-сервер»;
  • технологии, системы и среды виртуальной реальности;
  • когнитивные технологии, в частности, средства и методы визуального и когнитивного программирования;
  • объектно-ориентированные технологии, в частности, объектно- ориентированные среды программирования и организации интерфейса;
  • средо-ориентированные технологии, в частности, средо-ориентированные системы программирования;
  • CASE — технологии и др.

Новые информационные технологии — основа многих других технологий, а также основа нового операционного стиля мышления.

Отношение общего объёма активных информационных ресурсов к общему объёму всех национальных ресурсов является одним из наиболее существенных показателей экономического вектора развития общества по пути построения информационного общества.

Компьютеризация общества и её различных институтов должна быть направлена не только (не столько) на пассивную (статическую) актуализацию информационных ресурсов общества, но и на создание и актуализацию новых информационных технологий, ресурсов, динамическое их переупорядочивание, а также их взаимопроникновение и взаимообогащение в системах вида “человек-технология-знания-система”.

Историческая справка

Информация (informatio) — разъяснение, осведомленность, изложение.

Исторически первым носителем человеческих информации, знаний была речь, представлявшая изначально кодированные звуки для координации действий в человеческом сообществе. Затем появилось наскальное письмо каменного века, далее пиктограммы (“иконы”) бронзового века, иероглифическое письмо (сохраненное до сих пор, например, в Китае) и письмо “обычное” — конкатенацией букв алфавита в слоги (“слоговое письмо”) и т.д.

Объединение систем, процессов, связанных с понятиями “информация”, “управление” привело к появлению нового предмета “кибернетика (или науки об управлении в живых организмах и автоматах)” (40-ые годы 20-го века), изучающей информационные процессы в живых организмах и машинах (автоматах). Кибернетика явилась одной из важных предпосылок появления и развития информатики. В последнее время, предмет кибернетики понемногу, видимо, “поглощается” предметом информатики. Но при этом информатика не зачеркивает кибернетику, которая теперь может развиваться сильнее, используя результаты, методы и технологии информатики.

Понятие энтропии было введено Р.Клаузиусом в 1852 году в качестве удобного средства описания и анализа работы тепловых двигателей. Затем это понятие Л.Больцманом и другими учеными использовано в качестве универсального средства для описания поведения макроскопических систем. Л.Больцманом также установлена связь между энтропией H и термодинамической вероятностью состояния системы W: W=k lnW.

Связь информации и энтропии замечена Л. Сциллардом в 1929 году. К. Шеннон в 1948 году дал определение информации, основываясь на энтропии сообщений, используя ее как меру вероятности информационных процессов.

Э. Шредингер расширил понятие энтропии — рассмотрел её как меру дезорганизации системы любой природы.

Понятие ноосферы (в эколого-социальной трактовке) впервые ввел В.И. Вернадский.

Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:

Информация и самоорганизация систем

Сформулируем основные аксиомы теории информационных динамических процессов ( информационной синергетики ).

Аксиома 1. Развитие (эволюция) системы определяется некоторой целью и информационными ресурсами системы, ее информационной открытостью.

Аксиома 2. При стремлении к цели система воспринимает входную информацию, которая используется и для изменения внутренней структуры самой системы, внутрисистемной информации.

Аксиома 3. Изменение внутрисистемной информации происходит таким образом, чтобы увеличивалась негэнтропия (мера порядка) системы, уменьшалась энтропия (мера беспорядка) в системе.

Аксиома 4. Любое изменение внутренней структуры системы или внутрисистемной информации оказывает воздействие на выходную информацию системы (т.е. на окружающую среду системы); внутренняя энтропия изменяет внешнюю энтропию системы.

Большое значение при исследовании управляемости системы, ее управляющих параметров, развития системы во времени, в пространстве, по структуре имеют синергетические принципы, сформулированные И.Пригожиным и его последователями, в частности, следующие:

  1. принцип эволюции системы, необратимости процессов ее развития;
  2. принцип возможного решающего воздействия (при определенном стечении обстоятельств) малых изменений поведения системы на ее эволюцию;
  3. принцип множественности (или многовариантности) путей развития системы и возможности выбора оптимальных из них;
  4. принцип невмешательства в процессы самоуправляемого развития и непредсказуемости эволюционного поведения системы и, в то же время, — учёт возможности организовать управляющие воздействия на ресурсы и процессы в системе;
  5. принцип учета стохастичности и неопределенности процессов (поведения систем);
  6. принцип взаимовоздействия усложнения организации, устойчивости и темпов развития систем;
  7. принцип учета факторов стабильности и нестабильности системы (возникновения устойчивости из неустойчивого поведения), порядка и хаоса в системе (возникновения порядка из хаоса), определенности и неопределенности;
  8. принцип взаимовлияния устойчивости среды отдельной подсистемы или элемента (микросреды) и процессов во всей системе (макросреды).

Так как синергетика — теория возникновения новых качественных свойств и структур, а возникновение смысла (интерпретация и понимание сообщений) всегда связано с качественными изменениями в системе, то можно говорить об информационной самоорганизации. Информация — синергетическая среда, с помощью которой поддерживается вся система, ее отдельные подсистемы и которая генерирует информацию о том, как должна развиваться (саморазвиваться) система.

Важным условием рождения информации в системах является их открытость. В замкнутых системах, согласно второму началу термодинамики (энтропия замкнутой системы не может убывать и растет до тех пор, пока не достигнет максимума, а, следовательно, информация становится минимальной), структуры распадаются (на макроскопическом уровне). Поэтому информация не может рождаться и храниться в системах в состоянии теплового равновесия, так как в замкнутых системах всегда устанавливается тепловое равновесие.

Пример. Магнитный диск в состоянии теплового равновесия размагничивается и не может хранить информацию. Со временем дискеты приходят в состояние теплового равновесия, и магнитное покрытие разрушается, информация теряется.

Открытые системы поддерживают «дистанцию» от состояния теплового равновесия — за счет потоков ресурсов (вещества, энергии, информации) и за счет самоорганизации, вследствие которой эти потоки существуют и направляются в соответствии с подчиненностью постоянно (от элементов — к подсистемам, от них — к системе).

Пример. Структурной единицей нервной системы является нейрон — нервная клетка. Кора переднего отдела мозга содержит несколько десятков миллиардов нейронов. Нейроны бывают различного типа: сенсорные (от рецептора кожи к спинному мозгу); сетчатки (от рецепторов сетчатки глаза — к зрительному нерву); двигательные (от рецепторов мышц — к двигательной коре). Они образуют своеобразные регистры (зрительные, слуховые, тактильные и др.). Нейрон служит для передачи информации за счет нервных импульсов. Расшифровка нервных импульсов (информации) происходит в соответствующих областях коры головного мозга. Нейроны коры мозга функционируют параллельно. Это — их замечательное преимущество (по сравнению с памятью другого вида). В коре переднего мозга около 50 млрд. нейронов. Они организованы, примерно, в 600 млн. функционирующих параллельно систем. Производительность такого типа «процессора» (распределенного матричного или нейросистемы) очень впечатляет (оцените примерно ее!). Особенностью мозга является высокое качество, скорость обработки информации. Нейроны выполняют обработку со скоростью всего около 100 инструкций в секунду (сравнить с ЭВМ, выполняющей миллионы инструкций в секунду), но они быстрее и эффективнее решают наиболее сложные (для ЭВМ, в частности) задачи распознавания и классификации, принятия решений и другие плохо формализуемые и структурируемые проблемы. Человеческий мозг — это система параллельно работающих подсистем, структур, самоорганизующихся с помощью ассоциативных связей для выработки, принятия логических (алгоритмических, рациональных) решений. Там, где невозможно принять такое решение (т.е. не удается ассоциировать такие связи), принимается эвристическое решение. На каждом нейроне коры головного мозга одновременно (параллельно) обрабатываются возбуждения разного типа: мотивации, целеполагания, внешние возбуждения — отражения текущего состояния управляемого объекта, возбуждения памяти (опыта). Их согласованная обработка дает картину объекта и позволяет принимать решения. Так, мозг, непрерывно перебирая результаты всех прошлых действий в аналогичных ситуациях и сравнивая их с текущей ситуацией, выбирает вариант, наиболее подходящий, целесообразный и эффективный в данной конкретной ситуации. Если при этом не найдется такая ситуация, то выбирается (прогнозируется многокритериально) такое состояние, результат которого будет наиболее адекватен; этот результат и запоминается далее. У человека существует самостоятельная потребность в информации. Нормальная жизнедеятельность возможна лишь тогда, когда из внешней среды имеется приток не только вещества, энергии, но и информации, когда нет явлений «информационного голода». Получение новой информации связано со сжатием информации, например, с пересылкой в долговременную память (подсознание) образов, смыслов и т.д.

На этапе самоорганизации вырабатывается коллективное, корпоративное поведение (т.е. новый уровень иерархии образования смысла, семантики). В живых системах при этом используется не только связь со средой, но и генетически заложенная информация или информация самоорганизации.

Пример. Стадо буйволов (каждый из которых в отдельности достаточно беззащитен перед стаей хищников) во время нападения самоорганизуется: молодняк — в центре, самцы — по окружности («рогами наружу»). Это важно для выживания всего стада.

Информация может быть неполной, образной, например, в виде фрагментов, по которым быстро восстанавливается (самоорганизуется) более полная информация. Особенно важно быстро и полно восстанавливать эту информацию. Поэтому необходим процесс обучения, сжатия и передачи информации, знаний от поколения к поколению. Так как области знаний расширяются и углубляются, а информация лавинообразно растет, то важно находить синергетические инварианты, принципы, технологии ее передачи.

Наблюдаемая математизация и информатизация современной науки убедительно показывает, что их эффективность зависит как от данной науки, сложности и возможности адекватного описания ее законов и принципов математическими и информационными моделями, так и от используемого математического аппарата.

Вопросы для самоконтроля

  1. Что такое самоорганизация, самоорганизующаяся система?
  2. Является ли любая система самоорганизующейся? Какие системы всегда приводят к самоорганизации?
  3. Каковы основные аксиомы информационной синергетики? Каковы основные синергетические принципы И. Пригожина?

Задачи и упражнения

  1. Написать эссе на тему » Самоорганизация в живой природе».
  2. Написать эссе на тему » Самоорганизация в неживой природе».
  3. Привести пример самоорганизующейся системы и на её основе пояснить синергетические принципы И. Пригожина (предварительно ознакомившись с ними).

Темы для научных исследований и рефератов, интернет-листов

  1. Философские аспекты самоорганизации.
  2. Самоорганизация социально-экономических систем и их значение.
  3. Аксиоматика самоорганизации систем.

Понятие о связи информации и самоорганизации

4. Понятие о связи информации и самоорганизации

Любая открытая информационная система эволюционирует так, что начиная с состояния наибольшей энтропии (неопределённости) стремится спиралеобразно к новым связям и отношениям, к организованности и порядку в системе в процессе взаимоотношений со средой и перестройки структуры с целью уменьшения энтропии.

Пример. На телевизионной игре “Что? Где? Когда?” обсуждение вопроса часто начинается хаотично, спонтанно, независимо и в конце обсуждения может организоваться в единодушное принятие правильного решения.

Самоорганизация может наблюдаться и в неживых системах.

Пример. Эволюция ЭВМ — пример самоорганизации: от 1-го поколения ЭВМ (40-50-ые годы 19 века) с ненадёжными электронными лампами и быстродействием порядка 104 операций в сек. до 1-го поколения оптических вычислительных нейроподобных структур (конец 90-ых годов) с голографической памятью, с логикой на потоках фотонов, быстродействием порядка 1012 операций в сек. и высокой надёжностью.

Сформулируем основные аксиомы теории информационных динамических процессов (информационной синергетики).

Аксиома 1. Развитие системы определяется некоторой целью и информационными ресурсами системы.

Аксиома 2. При стремлении к цели система воспринимает входную информацию, которая используется и для изменения внутренней структуры самой системы, внутрисистемной информации.

Аксиома 3. Изменение внутрисистемной информации происходит таким образом, чтобы уменьшалась энтропия (мера беспорядка) в системе.

Аксиома 4. Любое изменение внутрисистемной информации оказывает воздействие на выходную информацию системы (на окружающую среду).

Аксиома 5. Процесс актуализации информации структурирует окружающий нас мир. Все, что не познано в данный момент времени, образует “хаос”, который заставляет актуализировать новую информацию, новые формы представления и описания знаний, приводит к появлению новых ветвей знания; этот хаос развивает при этом и исследователя.

Информация — это знание, которое используется для развития, совершенствования системы и её взаимодействий с окружающей средой.

Информация сама развивается вслед за развитием системы. Новые формы, принципы, подсистемы, взаимосвязи и отношения вызывают изменения в информации, ее содержании, формах получения, переработки, передачи и использования. Благодаря потокам информации система осуществляет целесообразное взаимодействие с окружающей средой, т.е. управляет или управляема. Своевременная и оперативная информация может позволить стабилизировать систему, адаптироваться, восстанавливаться при нарушениях структуры и/или подсистем. От степени информированности системы, от взаимодействия системы и среды зависит развитие и устойчивость системы.

Наблюдаемая математизация и математическая информатизация разделов современной науки показывает, что их эффективность зависит как от сложности и возможности описания её законов и принципов адекватными математическими и логико-информационными моделями, так и от используемого математического аппарата, выбранных мер информации, интеллектуальной деятельности, знаний, конструктивных методов и алгоритмов их измерения, оценивания информационных ресурсов.

Кроме указанных выше подходов к определению меры информации, есть и множество других (меры Винера, Колмогорова, Шрейдера и др.), но основными методами (в образовательной информатике) являются указанные. Рекомендуются для чтения (приведены в хронологическом порядке).

5. Задачи для самостоятельного решения

В заключение предложим некоторые задачи для закрепления материала и усиления интереса при обучении рассмотренной выше проблеме.

Задача 1. ДНК человека можно представить себе как некоторое слово в четырехбуквенном алфавите Х={A, B, C, D}, где буквой помечается звено цепи ДНК (нуклеотид). Среднее число их равное примерно 1.5´ 1023 нуклеотид. Считая, что ядро каждой из примерно 1013 клеток человеческого тела является хранителем генетической информации, оценить объем информации в них (в теле человека).

Задача 2. Ресурсы человеческого мозга рассчитаны на переработку информации в 16 бит в сек. Какое количество информации перерабатывает человек за свою жизнь, если предположить что переработка информации идёт непрерывно в течении средней продолжительности жизни, которую принять равной 70 лет (заметим, что и во время сна человек перерабатывает информацию, более того, сон — продукт такой переработки информации).

Задача 3. Некоторая система может находиться в четырёх состояниях: в первом — с вероятностью 0.1, во втором и третьем — с вероятностью 0.5, в четвёртом — с вероятностью 0.4. Чему равно количество информации (или неопределённость выбора) в системе? Если система может находиться только в состоянии номер 2, то чему оно равно?

Задача 4. Система может принимать 128 различных равновероятных состояний. если состояние системы неизвестно, то каково количество информации в системе (неопределённость выбора)? Если известно, что система находится в состоянии номер 8, то чему равно количество информации?

Задача 5. Определить количество информации (в битах) в каждой букве русского алфавита, отождествив вероятность появления этой буквы в словах с частотой по частотному словарю русского языка приведённому ниже. Найти какое количество информации определяется двухбуквенными сочетаниями (всем алфавитом)? Оценить количество информации в каждом слове из букв “а”, “б”, “с” над алфавитом русского языка. Частотный словарь русского языка имеет вид:

Буква Частота Буква Частота Буква Частота

о 0.090 к 0.028 ь, ъ, б 0.014

е, е 0.072 м 0.026 ч 0.013

а, и 0.062 д 0.025 й 0.012

т, н 0.053 п 0.023 х 0.009

с 0.045 у 0.021 ж, ю, ш 0.006

р 0.040 я 0.018 ц, щ, э 0.003

в 0.035 ы, з 0.016 ф 0.002

Задача 6. Увеличиться или уменьшиться количество информации о(в) системе “Сосуд с водой” до и после замораживания воды. Как изменится энтропия этой системы. Ответ обоснуйте.

Задача 7. Передатчик генерирует независимо друг от друга последовательности букв из двух букв “а”, одной буквы “б”, трёх букв “в”. Сколько таких всевозможных различных слов может генерировать передатчик? Какое количество информации несёт в себе каждое такое слово?

Задача 8. Проделайте (достаточно грубый) эксперимент по определению вашего числа Страуда (числа мысленных различений в сек): напарник показывает или называет двадцать букв в определённой (случайной для Вас) последовательности, а Вы воспроизводите их максимально в этой же последовательности; число правильно воспроизведённых букв и есть Ваше число Страуда. Проверьте подчиняются ли эти числа (для нескольких испытуемых) закону типа Хартли.

Задача 9. Оцените грубо быстродействие (гипотетического) компьютера построенного на биочипах (молекулярном способе запоминания информации, например, с помощью выращенных специально молекул, способных окрашиваться в два устойчивых цвета — 0 и 1), если количество таких чипов считается заданным.

Задача 10. На стандартной клавиатуре компьютера имеется 46 клавиш (без управляющих, цифровых и функциональных). Каждая клавиша имеет два регистра и два значения (латинского алфавита и кириллицы). Оцените примерно объём информации, который позволяет вводить этот набор.

Список литературы

Бриллюэн Л. Наука и теория информации. М.: Физматгиз, 1960. — 392 с.

Шеннон К. Работы по теории информации и кибернетике. М.: ИЛ, 1963 — 830 с.

Мазур М. Качественная теория информации. М.: Мир, 1974. — 240 с.

Стратонович Р.Л. Теория информации. М.: Сов. радио, 1975. — 424 с.

Колмогоров А.Н. Теория информации и теория алгоритмов.М:Наука,1987.-303 с.

Дмитриев В.Н. Прикладная теория информации. М: Высшая школа,1989. — 320 с.

Хакен Г. Информация и самоорганизация. М.: Мир, 1991. — 240 с.

Информатика. Энциклопедический словарь для начинающих. Под ред. Поспелова Д.А., М.: Педагогика-Пресс, 1994, — 352 с.

Казиев В.М. Информатика (в 3-х частях), Нальчик, 1997. — 324 с.

Ловцев Д.А. Информационная теория эргасистем. М.: ВАРВСН, 1998. — 124 с.

Райхерт Т.Н., Хеннер Е.К. Место теории информации в подготовке учителя информатики. ИНФО, N2, 1999, с. 32 — 38.

Информация о работе «Информация: понятия, виды, получение, измерение и проблема обучения» Раздел: Информатика, программирование
Количество знаков с пробелами: 38425
Количество таблиц: 0
Количество изображений: 0

Похожие работы

70789 2 0

… . Игру как метод обучения Е.И. Тихеева предлагала вводить по мере того, как то или другое числовое представление уже «извлечено детьми из самой жизни». В 30-е гг. идею использования игр в обучении дошкольников счёту обосновывала Ф.Н. Блехер. Существенный вклад в разработку дидактических игр и включения их в систему обучения дошкольников началам математики внесли Т.В. Васильева, Т.А. Мусейибова, …

17665 0 0

… с информационными технологиями. Основные этапы развития информационных технологий (Слово — Книгопечатание — Компьютер). Компьютер и общество. Элементы компьютерной этики. 3. «Базовый курс информатики» (7-9 классы). Информационные процессы. Передача, обработка, хранение и кодирование информации. Единицы измерения информации. Двоичное кодирование. Достоинства двоичного кодирования. Системы …

31287 0 0

… , числовой, изобразительной, звуковой и видеоинформации. С момента появления первых персональных компьютеров – ПК (80-е годы 20 века) – до 80% их рабочего времени посвящено работе с текстовой информацией. Хранение информации при использовании компьютеров осуществляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и …

45100 1 1

… повлияли проводимые переоценки основных фондов и применяемая система разнонаправленных индексов. Виды оценки и методы переоценки основных фондов Планирование и учет воспроизводства основных фондов осуществляются в натуральных и стоимостных показателях. Натуральные измерители применяются при расчетах производственной мощности предприятий, организации производственного процесса, определении …

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *