ПК на работе
В октябре на микропроцессорной конференции в Сан-Хосе я поймал себя на мысли, что слишком “толстым” компьютер быть не может.
Речь идет, разумеется, не о физической толщине переносных систем.
Я всячески приветствую изящную худобу корпусов блокнотных ПК и компактность настольных машин, но лишь до тех пор, пока их оперативная и массовая память не начинают страдать от дистрофии.
Поймите меня правильно - я высоко ценю чудеса, которые творят разработчики центральных процессоров нового поколения, задирая их рабочие частоты едва ли не выше, чем телевизионные каналы UHF. Я всегда готов отстаивать достоинства процессоров Alpha по сравнению с любыми другими. Можете рассчитывать на меня, если надо будет вместе со специалистами, знающими толк в программировании, поиздеваться над неоднородными функциями регистров и несимметричными наборами команд.
Но когда мне нужно просто сделать свою работу, я буду утверждать, что медленный процессор - никакая не проблема по сравнению с недостаточно “толстой” памятью, как оперативной, так и дисковой.
Если один ЦП работает на 10% медленнее другого, задание на нем выполняется дольше примерно на те же 10%. Это - в самом худшем случае, когда запускаемое приложение интенсивно использует процессор и когда я хорошо представляю суть задачи, которую нужно решить.
Во всех остальных случаях более быстрый процессор просто еще “быстрее” ждет - меня, т. е. пользователя, мою сеть или Web-сервер. Скорости работы именно этих компонентов вычислительной системы ограничивают ее общую производительность, какова бы ни была тактовая частота центрального процессора.
Но если убрать 10% оперативной и/или дисковой памяти ПК, время выполнения задачи может увеличиться вдвое, если не больше. Это обусловливается несколькими причинами.
Во-первых, понаблюдайте, что происходит, когда электронная таблица или еще какая-нибудь ресурсоемкая задача пересекает критический порог величины и сложности и подсистема виртуальной памяти начинает перекачивать страницы из ОЗУ на диск и обратно. Зрелище душераздирающее.
Дела обстоят еще хуже, когда оказывается опасно заполнен почти весь объем жесткого диска и пользователь целыми часами судорожно ищет, что еще можно было бы удалить или перенести на резервные носители без ущерба для системы. Это - перенасыщение другого рода, не такое, как в предыдущем случае, и оно отбирает огромное количество столь бесценного ресурса, как время конечных пользователей.
А ведь для его экономии и разрабатывалось все это компьютерное оборудование, не так ли?
Машина с 640 Кб ОЗУ для работы под DOS была вполне хороша в 1984 г., а уже в 1988-м совсем не лишними были 4 Мб (например, для серьезных электронных таблиц, а также многозадачных режимов в Desqview или Macintosh MultiFinder). За четыре года необходимый объем ОЗУ увеличился в шесть раз.
Исходя из этих темпов роста нормальное ОЗУ должно было к 1992 г. иметь 24 Мб. И действительно - именно столько памяти я тогда устанавливал на новые рабочие станции под Unix, причем они предназначались даже не для выполнения задач с интенсивной графикой, а просто для разработки ПО.
Требования к оперативной памяти должны были вырасти к 1996 г. до 144 Мб. С учетом системы виртуальной памяти это означает примерно 64 Мб физического объема ОЗУ, и я рекомендовал в то время для Windows NT именно такую величину. Добавьте еще два года - и предпочтительный объем ОЗУ увеличивается до 128 Мб (и не меньше 2 Гб на жестком диске) для систем, которые будут покупать в 1998 г.
Сбережение средств за счет отказа от наращивания оперативной памяти и дискового пространства - худшая разновидность ложной экономии; я уверен, что вложения здесь полностью окупаются. Поэтому советую: при планировании ваших компьютерных закупок на будущий год соблюдайте баланс между скоростью процессора и емкостью оперативной и дисковой памяти.
Питер Коффи
Что замедляет вашу работу и может ли вам помочь какое-нибудь дополнительное оборудование? Напишите мне по адресу: peter_coffee@zd.com.