2 вопроса по информатике по теме история развития вычислительной техники 1. Почему, по-вашему мнению, уже довольно давно не происходило смены поколений? 2. Данные каких типов обрабатывались на эвм каждого из поколений
1. Смену поколений ЭВМ начинают физики, изобретая новые принципы, которые потом используются при проектировании нового типа компьютеров. Относительный застой и в компьютерной отрасли связан с отсутствием принципиально нового в физике, всё, что можно было открыть на существующем наборе принципов "просто", уже открыто, для дальнейшего развития надо открывать что-то ещё, на что нужно потратить много времени и средств. Большое количество исследований проводятся в областях, связанных с квантовой информатикой и оптоэлектроникой.
2. Загадочный вопрос, не сильно понимаю, что на него отвечать. Большинство ЭВМ каждого поколения обрабатывали двоичные данные, разница только в объёмах и быстродействии.
ЭВМ первого поколения были скорее игрушками для физиков, на которых обрабатывали несколько килобайт данных со скоростью около десятка тысяч стандартных операций в секунду. Был медленный ввод-выаод. Считались, наверно, какие-то математические задачки.
ЭВМ второго поколения после перехода на полупроводники уже были более надёжными, и тут уже появилась возможность вводить данные быстрее. Появились более высокоуровневые языки программирования, компьютерные программы смогли писать физики, экономисты.
ЭВМ третьего поколения увеличили производительность до миллиона операций в секунду, появилась быстрая полупроводниковая память. Появляется возможность взаимодействия с пользователем (а не загрузил программу и данные — через неделю пришёл за результатом), большее количество периферийных устройств, соответственно, появилась возможность обработки не только научных вычислений, но и прикладных вычислений. Под конец уже появляется персональный компьютер, обрабатывающий ффайлы пользователя, мультимедиа и т.п.
ЭВМ четвертого и пятого поколения в плане данных уже почти не отличаются (разница по большому счету в объёмах). Развивается мультипроцессорность, сначала для военных нужд, потом для гражданских, затем появляются вычислительные кластеры. Всё пришло к тому, что сейчас называют Big Data: обработка больших объёмов данных. Ведётся работа по созданию искусственного интеллекта. С начала 2000-х развиваются "интеллектуальные" интерфейсы взаимодействия с пользователем, попытки обработки естественного ввода.
Answers & Comments
Verified answer
1. Смену поколений ЭВМ начинают физики, изобретая новые принципы, которые потом используются при проектировании нового типа компьютеров. Относительный застой и в компьютерной отрасли связан с отсутствием принципиально нового в физике, всё, что можно было открыть на существующем наборе принципов "просто", уже открыто, для дальнейшего развития надо открывать что-то ещё, на что нужно потратить много времени и средств. Большое количество исследований проводятся в областях, связанных с квантовой информатикой и оптоэлектроникой.2. Загадочный вопрос, не сильно понимаю, что на него отвечать. Большинство ЭВМ каждого поколения обрабатывали двоичные данные, разница только в объёмах и быстродействии.
ЭВМ первого поколения были скорее игрушками для физиков, на которых обрабатывали несколько килобайт данных со скоростью около десятка тысяч стандартных операций в секунду. Был медленный ввод-выаод. Считались, наверно, какие-то математические задачки.
ЭВМ второго поколения после перехода на полупроводники уже были более надёжными, и тут уже появилась возможность вводить данные быстрее. Появились более высокоуровневые языки программирования, компьютерные программы смогли писать физики, экономисты.
ЭВМ третьего поколения увеличили производительность до миллиона операций в секунду, появилась быстрая полупроводниковая память. Появляется возможность взаимодействия с пользователем (а не загрузил программу и данные — через неделю пришёл за результатом), большее количество периферийных устройств, соответственно, появилась возможность обработки не только научных вычислений, но и прикладных вычислений. Под конец уже появляется персональный компьютер, обрабатывающий ффайлы пользователя, мультимедиа и т.п.
ЭВМ четвертого и пятого поколения в плане данных уже почти не отличаются (разница по большому счету в объёмах). Развивается мультипроцессорность, сначала для военных нужд, потом для гражданских, затем появляются вычислительные кластеры. Всё пришло к тому, что сейчас называют Big Data: обработка больших объёмов данных. Ведётся работа по созданию искусственного интеллекта. С начала 2000-х развиваются "интеллектуальные" интерфейсы взаимодействия с пользователем, попытки обработки естественного ввода.