Download as odt, pdf, or txt
Download as odt, pdf, or txt
You are on page 1of 34

Integral learning English and technique workshop

Full name Norman Fredy Mejia Zapata FICHA (Course) 2222321

Practice 1: Computer Architecture

Objectives:

• Introduction to the architecture and inner functions of the computer.

• Knowledge of the different devices of the machine.

• Understanding the terms: CPU, Memory, Bus, Peripheral, Operating System,


and File.

• Identification and solving small hardware and software problems.

PRACTICE #1
1. Make a sketch or sketch of the architecture of a computer. Then, in
groups of three people, unify their sketches and make a final outline,
where you should include:

a) Name of the different components.

b) Function of each component.

c) Which components are essential, and which are not?


The PC, also called computer or computer, is a piece of equipment or electronic
device in charge of processing and storing information.

It has a computer system made up of hardware and software, the first refers to
the physical part of the PC, such as the fan, the RAM, the mother, etc. And the
second is the logical part, such as applications.

There are several types of computers such as the desktop computer, which has
dimensions and characteristics to be used in a fixed place, which has a work or
home use; The personal computer, which is also called a laptop or micro-
computer, has the same functionality as a desktop computer, the difference is
that it can be easily transported anywhere; and the quantum computer, which is
designed to carry out very complex calculations in a fast way.

WHAT ARE ITS PARTS?

1 PC parts

1 Monitor
2 Keyboard
3 Power supply
4 Mouse
5 Motherboard
6 Video card
7 CD / DVD burner
8 CPU
9 Network card
10 RAM memory
11 Expansion cards
12 Optical disc drive
13 Hard disk

Display

It corresponds to the computer screen. It is an output peripheral that shows the


results of any action made on the computer through an interface.
Keyboard
It is an input peripheral made up of a series of keys or buttons that, when
pressed, send information to the computer, functioning as electronic switches or
mechanical levers. It has between 99 and 108 keys, which are distributed in four
blocks: one alphanumeric, functions, special and numeric.
Power supply
Part of the computer in charge of transforming alternating voltage from the
supply network into direct voltage, with which all the circuits of the equipment
will be powered. The computer, printer, router, etc. are connected to this.
Power supply types
• Linear power supplies: simple in design, but which becomes more complex
when it has to supply a greater amount of current.
• Switching power supplies: it is much more complex, although it works with the
same power as linear. At the same time, it is smaller and more efficient.
Mouse
Commonly called a mouse, it is a device with which the computer's graphical
environment is managed. In this, any movement made on a flat surface is
reflected by showing an arrow or a pointer on the monitor.
Motherboard

Also called motherboard, this is where each of the PC's components are
connected. It has various integrated circuits, such as RAM memory, chipset,
expansion buses, etc. This is located inside a sheet metal box that has a panel
where the external devices are connected, the sockets where other components
are installed to the box, and the internal connectors.

Graphics card

This takes the data from the microprocessor, interprets it and later changes it
into data that can be processed by the monitor. In short, it sends the output
image of the processed data
CD / DVD burner
These devices make it possible to read optical discs and at the same time allow
the recording of data on blank or rewritable discs. To function as a recorder or
burner, it uses a special program or uses the OS assistant –Operating System-.
CPU
These devices make it possible to read optical discs and at the same time allow
the recording of data on blank or rewritable discs. To function as a recorder or
burner, it uses a special program or uses the OS assistant –Operating System-.

Network card
It is what allows the PC to connect to a network, in order to share data or to
connect to a printer or the Internet.
Memory RAM
It is a random-access memory where the processor receives all the instructions
and at the same time saves the results.
Expansion cards
It is a device made up of a series of controllers and integrated circuits, which,
connected to expansion slots, extend the capabilities of a computer.
These cards generally serve as disk drive controllers, to add more memory, as
video controllers, as internal modem devices, and as a parallel port.

Optical disc drive


It is the unit that is responsible for the process of writing or reading data to or
from the hard disk, where it uses electromagnetic waves or laser light close to the
spectrum of light. There are two types of units: those that can only read, and
those that, in addition to reading, record, which are named as reader-recorder.
HDD
It is also known as a hard disk. It is the part of the computer in charge of storing
non-volatile data, where it makes use of a magnetic recording system. It is
composed of the union of one or more rigid discs or plates on a single axis, which
rotate rapidly while being protected within a metal box.

1. Imagine that you are a sales clerk in a computer store. Inform the
next three customers who come to your store which equipment is best
suited to their needs, for example, what components and accessories
they will need and why. As a list of components, we have
microprocessor, RAM memory, Hard Drive, modem, network card,
graphics card and sound card.

- Client 1: Javi is a boy that already has a computer. He uses it specially to


play. The problem is that the last games he has bought, already run a little
bit slow in his computer. What components of his computer would you
change to improve gaming performance? Besides, Javi also uses the
computer as an assistant when composing music as well.
The main characteristics of a computer in which it is intended to produce music
and play games are:
Processor: Have a good processor, at least an Intel Core i5 at 3.4 GHz.
RAM memory: A RAM memory of at least 8Gb, since new operating systems such
as Windows 10 Pro consume a large part of it and it is necessary to continue
having at least 4 Gb free.
Storage memory: At least 500 Gb of internal hard drive memory storage. Since
an infinity of sound libraries, heavy plugins and games will accumulate.
A new graphics card to improve gaming performance: NVIDIA Ge-Force GTX
1080Ti or AMD Radeon VII. NVIDIA GeForce RTX required to use Ray Tracing.

- Client 2: Julia is an engineer. At work, you need a computer to make fluid


dynamics simulations (very expensive calculations and a lot of data). The
rest of the work computers will constantly access this computer through
their local network to consult the results of the simulations. Imagine:
-

Computer 1 Computer4

Internet Internet

Computer 2 Julia´s computer


Computer 5

Computer 3 Computer 6

Computadoras para Ingenieros- arquitectos

Engineering is a multidisciplinary profession, in which you need to work with very


different software: design, calculation, budgeting, modeling, documents.

¿Workstation o portátiles?
Una workstation, es un ordenador de alto rendimiento con un procesador más
potente, más memoria RAM y capacidades mejoradas en diseño gráfico, edición
de vídeos, ingeniería, ciencia y programación de juegos.
Asimismo, existen computadoras portátiles bastante sofisticadas ideales para
arquitectos que ofrecen movilidad y son capaces de ejecutar programas 3D para
arquitectura, como Autocad, con total fluidez.
Aunque, la elección final depende de la especialidad del usuario, pues, puede
requerir diferentes prestaciones de acuerdo a su puesto de trabajo y tareas
diarias. 
 
Características de la computadora:

If you decide on a desktop or laptop PC, you should anticipate the following
qualities:
• Wide monitors, between 19 and 21 inches
• Intel Core i7 processor with Turbo Boost technology
• Large capacity hard drive, 500GB to 1,000GB
• RAM memory greater than 6 GB
• High definition video (HDMI) outputs to enjoy picture quality

-Client 3: Juan works in an office. He wants a computer so he can type reports


at home and take them from work to home.

Configuración PC Básica
Our basic PC configuration is aimed at covering the most common uses on a daily
basis: office automation, internet, multimedia, etc. But we go one step further:
we include decent-quality components and SSDs, in order to enjoy an
overwhelming fluidity.

Componentes Modelo

Caja Nox Coolbay MX2

AMD Athlon 200GE (2 núcleos, 4 hilos,


Procesador (AMD)
integrada Vega 3)

Placa base (AMD) Gigabyte B450M DS3H

Intel Pentium Pentium Gold G5400 (2


Procesador (INTEL) núcleos, 4 hilos, integrada UHD Graphics
610)

Placa base (INTEL) Gigabyte B360M DS3H

Memoria RAM Crucial Ballistix 2x4GB DDR4 (8GB)

Disipador CPU Incluido en el procesador

Tarjeta gráfica Integrada en el procesador

HDD Ninguno

SSD WD Green 500GB SATA3

Fuente de alimentación Corsair VS450 80 Plus

- And you? How is the computer that you need? A pc to development.

Computadoras para programadores

If you are into mobile development, you will need a more powerful computer. If
you want to make iPhone apps you need a Mac and if you only want to dedicate
yourself to web development you can buy a slightly less powerful computer.

 
Características de las computadoras para programar

Las claves para elegir un buen ordenador para tus tareas de programación son:

 Procesador: Invierte en equipos con gran potencia. Mínimo, un procesador


i3, pero, es mejor un i7.
 Memoria RAM: Cuanta más, es mejor. Lo mínimo requerido es de 8GB,
aunque, 12GB, 16GB y 32GB es lo ideal.
 Pantalla: Mínimo de 14 pulgadas y que sean full HD para mejorar la
visualización. 
 Pantallas auxiliares: Trabajar con 2 pantallas aumentará tu
productividad. Ten a la mano una pantalla auxiliar con entrada HDMI
preferiblemente o que puedas adaptar, para extender tu escritorio a otra
pantalla.
 Disco duro: Es preferible un disco de 256GB de estado sólido a un disco
mecánico de 1TB, debido a la velocidad de acceso, la transferencia y el
precio. Si te preocupa mucho el espacio disponible, considera un disco
portable y aprovecha los servicios en la nube.
 Periféricos bluetooth: Si usas un mouse inalámbrico USB, cámbialo por
un mouse bluetooth, pues, te ahorrarás una conexión USB, además, que los
mouse USB actuales consumen muy poca energía y tienen la opción de auto
apagado.
 Rendimiento: La batería es muy importante. Considera laptops que te
puedan dar 6 horas de rendimiento, al menos. Si es posible, adquiere uno
que garantice 10 horas de trabajo sin conexión.
 Teclado: Debe ser de tamaño standard de preferencia para tu comodidad.
 
Intensification exercises

1. Find information and make a brief summary about the most important
changes in the history of the Intelx86 family microprocessors, from
8086 to i7.

Intel processors that made history


Intel 8086, 386, 486 or the fabulous Pentium III among the most
prominent
Processors are probably the most interesting piece of hardware in a computer.
They have a rich and long history, dating back to 1971 with the first commercially
available microprocessor, the Intel 4004. As we know, technology has improved
by leaps and bounds since then.
We are going to show you the history of Intel processors, starting with the Intel
8086. It was the processor that IBM chose for the first PC and from there began a
great story.
Intel 8086 (1978)

The first four generations of the Intel processor took "8" as the name of the
series, so the technical types refer to this family of chips as the 8088, 8086 and
80186. This goes as far as the 80486, or simply the 486.

The following chips are considered the dinosaurs of the computer world. Personal
computers based on these processors are the type of PC currently found in the
garage or warehouse collecting dust. They don't do much good anymore, but
geeks don't like to throw them away because they still work.

This chip was omitted for the original PC, but it was used in some later computers
that did not amount to much. It was a true 16-bit processor and communicated
with its cards through 16-wire data connections.

The chip contained 29,000 transistors and 20 bits of addresses that gave it the
ability to work with up to 1MB of RAM. The interesting thing is that the designers
of the time never suspected that someone would need more than 1 MB of RAM.
The chip was available in 5, 6, 8, and 10 MHz versions.
Intel 8088 (1979)

CPUs have gone through many changes in the few years since Intel came out
with the first processor. IBM chose Intel's 8088 processor for the brains of the
first PC. This choice of IBM is what made Intel the perceived leader in the CPU
market.
The 8088 is, for all practical purposes, identical to the 8086. The only difference
is that it handles its address bits differently than the 8086 processor. But, like the
8086, it is capable of working with the coprocessor chip math 8087.

Intel 186 (1980)

The 186 was a popular chip. Many versions have been developed in its history.
Buyers could choose between CHMOS or HMOS, 8-bit or 16-bit versions,
depending on what they needed.

A CHMOS chip could run at twice the clock speed and a quarter of the power of
the HMOS chip. In 1990, Intel came out with the Enhanced 186 family. They all
shared a common core design. They had a 1 micron core design and operated at
about 25 MHz at 3 volts.
The 80186 contained a high level of integration, with the system controller,
interrupt controller, DMA controller, and timing circuitry directly on the CPU.
Despite this, the 186 was never included in a PC.

NEC V20 and V30 (1981)

Son clones de los 8088 y 8086. Se supone que son un 30% más rápidos que los
de Intel.

Intel 286 (1982)


Finally, in 1982, the 286 processor, or better known as the 80286, is a processor
that could recognize and use the software used for previous processors.
It was a 16-bit, 134,000-transistor processor, capable of addressing up to 16MB
of RAM. In addition to the increased physical memory support, this chip was able
to work with virtual memory, thus allowing great expansion capacity.
The 286 was the first "real" processor. Introduced the concept of protected mode.
This was the ability to multitask, making different programs run separately but at
the same time. This capability was not taken advantage of by DOS, but future
operating systems, such as Windows, could use this new feature.
However, the drawbacks to this capability were that although it could switch from
real mode to protected mode (real mode was intended to be compatible with
8088 processors), it could not revert to real mode without a warm restart.

This chip was used by IBM in its Advanced Technology PC / AT and was used in
many of the IBM compatible computers. It ran at 8, 10, and 12.5 MHz, but later
editions of the chip ran up to 20 MHz. While these chips are obsolete today, they
were quite revolutionary during this period.Intel 386 (1985)

El desarrollo de Intel continuó en 1985, con el microprocesador 386, que tenía


275.000 transistores integrados, que en comparación con 4004, tenía 100 veces
más.
El 386 significó un aumento importante en la tecnología de Intel. El 386 era
un procesador de 32 bits, lo que significa que su rendimiento de datos fue
inmediatamente el doble del 286.
El procesador 80386DX, que contiene 275.000 transistores, venía en versiones de
16, 20, 25 y 33 MHz. El bus de direcciones de 32 bits permitió que el chip
funcionara con 4 GB de RAM y una asombrosa memoria virtual de 64 TB.

Además, el 386 fue el primer chip en utilizar instrucciones, lo que permitía al


procesador comenzar a trabajar en la siguiente instrucción antes de que se
completara la anterior.
Mientras que el chip podía funcionar tanto en modo real como protegido (como el
286), también podía funcionar en modo real virtual, permitiendo que varias
sesiones de modo real se ejecutaran a la vez.

Sin embargo, para ello era necesario un sistema operativo multitarea como
Windows. En 1988, Intel lanzó el 386SX, que era básicamente una versión
liviana del 386. Utilizaba el bus de datos de 16 bits en lugar de los 32 bits, y era
más lento, pero utilizaba menos energía, lo que permitió a Intel promocionar el
chip en ordenadores de sobremesa e incluso portátiles.
En 1990, Intel lanzó el 80386SL, que era básicamente una versión de transistor
855 del procesador 386SX, con compatibilidad ISA y circuitos de administración
de energía.
Estos chips fueron diseñados para ser fáciles de usar. Todos los chips de la familia
eran compatibles con pin-for-pin y eran compatibles con los chips 186 anteriores,
lo que significa que los usuarios no tenían que adquirir software nuevo para
utilizarlos.

Además, el 386 ofrecía características favorables a la energía, como los requisitos


de bajo voltaje y el modo de administración del sistema (SMM), que podía
apagar varios componentes para ahorrar energía.
En general, este chip fue un gran paso para el desarrollo de chips. Estableció el
estándar que muchos chips posteriores seguirían.
Intel 486 (1989)
Luego, en 1989, el microprocesador 486DX fue el primer procesador con más de
1 millón de transistores. El i486 era de 32 bits y funcionaba con relojes de hasta
100 MHz. Este procesador se comercializó hasta mediados de los años 90.
El primer procesador facilitó que las aplicaciones que solían escribir comandos
estuvieran a un solo click de distancia, y tuvieran una función matemática
compleja que reducía la carga de trabajo en el procesador.

Tenía la misma capacidad de memoria que el 386 (ambos eran de 32 bits) pero
ofrecía el doble de velocidad a 26,9 millones de instrucciones por segundo
(MIPS) a 33 MHz.
Sin embargo, hay algunas mejoras más allá de la velocidad. El 486 fue el primero
en tener una unidad de coma flotante (FPU) integrada para reemplazar al
coprocesador matemático normalmente separado (no todos los 486 tenían esto,
sin embargo).
También contenía una caché integrada de 8 KB en la matriz. Esto aumentaba la
velocidad usando las instrucciones para predecir las siguientes instrucciones y
luego almacenarlas en la caché.

Luego, cuando el procesador necesitaba esos datos, los sacaba de la caché en


lugar de utilizar la sobrecarga necesaria para acceder a la memoria externa.
Además, el 486 venía en versiones de 5 y 3 voltios, lo que permitía flexibilidad
para ordenadores de sobremesa y portátiles.
El chip 486 fue el primer procesador de Intel diseñado para ser actualizable. Los
procesadores anteriores no se diseñaron de esta manera, por lo que cuando el
procesador quedaba obsoleto, había que reemplazar toda la placa base.
En 1991, Intel lanzó el 486SX y el 486DX/50. Ambos chips eran básicamente los
mismos, excepto que la versión 486SX tenía el coprocesador matemático
desactivado.
El 486SX era, por supuesto, más lento que su primo DX, pero el costo y la
energía reducidas resultantes se prestaron a ventas y movimiento más rápidos en
el mercado de los ordenadores portátiles. El 486DX/50 era simplemente una
versión de 50 MHz del 486 original. El DX no podía soportar OverDrives futuros
mientras que el procesador SX sí podía.
En 1992, Intel lanzó la próxima oleada de 486’s que utilizaban la
tecnología OverDrive. Los primeros modelos fueron el i486DX2/50 y el
i486DX2/66. El “2” extra en los nombres indicaba que la velocidad de reloj
normal del procesador se duplicó efectivamente usando OverDrive, por lo que el
486DX2/50 era un chip de 25 MHz doblado a 50 MHz. La velocidad de base más
lenta permitía que el chip funcionara con los diseños de placa base existentes,
pero permitía que el chip funcionara internamente a mayor velocidad, lo que
aumentaba el rendimiento.
También en 1992, Intel sacó el 486SL. Era prácticamente idéntico a los
procesadores de la cosecha 486, pero contenía 1,4 millones de transistores.
Las características adicionales fueron utilizadas por su sistema de circuitos
internos de gestión de energía, optimizándolo para uso móvil. Desde allí, Intel
lanzó varios modelos 486, mezclando SL’s con SX’s y DX’s a una variedad de
velocidades de reloj.

Para 1994, estaban completando su desarrollo continuo de la familia 486 con los
procesadores Overdrive DX4. Mientras que se podía pensar que estos eran
cuadruplicadores de relojes 4X, en realidad eran triplicadores 3X, permitiendo que
un procesador de 33 MHz operara internamente a 100 MHz.
Pentium I (1993)

Lanzado en 1993, este procesador tenía más de 3 millones de transistores. En


ese momento, el Intel 486 estaba liderando todo el mercado. Además, la gente
estaba acostumbrada al esquema tradicional de nombres 80×86.
Intel estaba ocupado trabajando en su próxima generación de procesadores. Pero
no debía llamarse 80586. Hubo algunos problemas legales en torno a la
posibilidad de que Intel usara los números 80586.

Por lo tanto, Intel cambió el nombre del procesador por el de Pentium, un nombre
que fácilmente podían registrar. Así, en 1993 lanzaron el procesador Pentium.
The original Pentium ran at 60 MHz and 100 MIPS. Also called "P5" or "P54", the
chip contained 3.21 million transistors and worked on the 32-bit address bus
(same as 486). It also had an external 64-bit data bus that could run at about
twice the speed of the 486.
The Pentium family included clock speeds of 60, 66, 75, 90, 100, 120, 133, 150,
166, and 200 MHz. The original 60 and 66 MHz versions operated in the socket 4
configuration, while all versions remaining operated on socket 7.
Some of the chips (75 MHz - 133 MHz) could also run on socket 5. Pentium was
compatible with all older operating systems, including DOS, Windows 3.1, Unix,
and OS / 2.
Its superscalar microarchitecture design allowed two instructions per clock cycle
to be executed. The two separate 8K caches (code cache and data cache) and the
segmented floating point unit (pipelined) increased their performance beyond x86
chips.
It had the SL power management features of the i486SL, but the capacity was
greatly improved. It had 273 pins that connected it to the motherboard.
Internally, however, its two chained 32-bit chips divided the work.
The first Pentium chips ran at 5 volts and therefore ran quite hot. Starting with
the 100 MHz version, the requirement was lowered to 3.3 volts. Starting with the
75 MHz version, the chip also supported symmetric multiprocessing, which means
that two Pen-tiums could be used side by side in the same system.
The Pentium stayed a long time, and there were so many different Pentiums that
it became difficult to tell them apart.Pentium Pro (1995-1999)

Si el Pentium anterior era anticuado, este procesador evolucionó hasta


convertirse en algo más aceptable. El Pentium Pro (también llamado “P6” o
“PPro”) era un chip RISC con un emulador de hardware 486, que funcionaba a
200 MHz o menos. Este chip utilizaba varias técnicas para producir más
rendimiento que sus predecesores.
El aumento de la velocidad se logró dividiendo el procesamiento en más etapas, y
se hacía más trabajo dentro de cada ciclo de reloj.
En cada ciclo de reloj, se podían decodificar tres instrucciones, en comparación
con solo dos para el Pentium. Además, la decodificación y ejecución de
instrucciones se desacopló, lo que significó que las instrucciones todavía podían
ejecutarse si se detenía una pipeline (por ejemplo, cuando una instrucción estaba
esperando los datos de la memoria; el Pentium detendría todo el procesamiento
en este punto).
Las instrucciones a veces se ejecutaban fuera de orden, es decir, no
necesariamente como estaba escrito en el programa, sino más bien cuando la
información estaba disponible, aunque no permanecían mucho fuera de
secuencia, solo lo suficiente para hacer que las cosas funcionaran mejor.
Tenía dos caché 8K L1 (una para datos y otra para instrucciones) y hasta 1 MB de
caché L2 integrado en el mismo paquete. La caché L2 integrada aumentó el
rendimiento en sí misma porque el chip no tenía que hacer uso de una caché
L2 (memoria caché nivel 2) en la propia placa base.
Fue un gran procesador para servidores, ya que podía estar en sistemas
multiprocesador con 4 procesadores. Otra cosa buena del Pentium Pro es que con
el uso de un procesador overdrive Pentium 2, se tenían todas las ventajas de un
Pentium II normal, pero la caché L2 era a toda velocidad, y se conseguía el
soporte multiprocesador del Pentium Pro original.
Pentium MMX (1997)

Intel lanzó muchos modelos diferentes del procesador Pentium. Uno de los
modelos más mejorados fue el Pentium MMX, lanzado en 1997.

Fue una iniciativa de Intel para mejorar el Pentium original y hacer que sirviera
mejor a las necesidades de multimedia y rendimiento. Una de las mejoras clave,
y de donde obtiene su nombre, es el conjunto de instrucciones MMX.
Las instrucciones MMX eran una extensión del conjunto de instrucciones
normales. Las 57 instrucciones adicionales simplificadas ayudaron al procesador a
realizar ciertas tareas clave de forma más eficiente, permitiéndole realizar
algunas tareas con una instrucción que habría necesitado instrucciones más
regulares.

El Pentium MMX se desempeñó hasta un 10-20% más rápido con el software


estándar, y mejor aún con el software optimizado para las instrucciones MMX.
Muchas aplicaciones multimedia y juegos que aprovechaban mejor el rendimiento
de MMX, tenían velocidades de cuadro más altas.
MMX no fue la única mejora en el Pentium MMX. Las cachés duales de 8K del
Pentium se duplicaron a 16 KB cada una. Este modelo de Pentium llegó a los 233
MHz.
Pentium II (1997)

Intel hizo algunos cambios importantes con el lanzamiento de Pentium II. Tenía
los Pentium MMX y Pentium Pro’s en el mercado de una manera fuerte, y quería
traer lo mejor de ambos en un solo chip.

Como resultado, el Pentium II es la combinación entre Pentium MMX y Pentium


Pro. Pero como en la vida real, no necesariamente se obtiene un resultado
satisfactorio.
El Pentium II estaba optimizado para aplicaciones de 32 bits. También contenía el
conjunto de instrucciones MMX, que era casi un estándar en ese momento. El chip
utilizaba la tecnología de ejecución dinámica del Pentium Pro, lo que permitía al
procesador predecir las instrucciones de entrada, acelerando el flujo de trabajo.

TE RECOMENDAMOS
AMD Ryzen 5 Vs Intel Core i5 ¿Cual es mejor opción?

Pentium II tenía 32 KB de caché L1 (16 KB cada uno para datos e instrucciones)


y tenía una caché L2 de 512 KB en el paquete. La caché L2 funcionaba a la
velocidad del procesador, no a toda velocidad. Sin embargo, el hecho de que la
caché L2 no se encuentrara en la placa base, sino en el propio chip, aumentaba el
rendimiento.
El Pentium II original era un código llamado “Klamath”. Corría a una pobre
velocidad de 66 MHz y oscilaba entre 233 MHz y 300 MHz. En 1998, Intel hizo un
ligero trabajo de reequipamiento del procesador y lanzó “Deschutes”. Utilizaron
una tecnología de diseño de 0,25 micras para esta, y permitieron un bus de
sistema de 100 MHz.
Celeron (1998)

Cuando Intel lanzó el P2 mejorado (Deschutes), decidieron enfrentarse al


mercado de nivel básico con una versión reducida del Pentium II, el Celeron.

Para reducir los costes, Intel eliminó la caché L2 del Pentium II. También eliminó
el soporte para procesadores duales, característica que tenía el Pentium II.
Esto hizo que el rendimiento se redujera notablemente. La eliminación de la
caché L2 de un chip dificulta seriamente su rendimiento. Además, el chip se
limitaba al bus de sistema de 66 MHz. Como resultado, los chips de la
competencia a las mismas velocidades de reloj superaban al Celeron.ó su error
con la próxima edición del Celeron, el Celeron 300A. El 300A vino con 128 KB de
caché L2 integrado, lo que significa que funcionaba a la máxima velocidad del
procesador, no a media velocidad como el Pentium II.
Este hecho fue excelente para los usuarios de Intel, porque los Celerons con
caché de alta velocidad funcionaban mucho mejor que los Pentium II con 512 KB
de caché funcionando a media velocidad.

Con este hecho, y el hecho de que Intel desatara la velocidad del bus del Celeron,
el 300A se hizo famoso en los círculos de entusiastas del overclocking.
Pentium III (1999)

Intel lanzó el procesador Pentium III “Katmai” en febrero de 1999, que


funcionaba a 450 MHz en un bus de 100 MHz. Katmai introdujo el conjunto
de instrucciones SSE, que consistía básicamente en una extensión de MMX que
mejoró de nuevo el rendimiento de las aplicaciones 3D diseñadas para utilizar la
nueva capacidad.
También denominado MMX2, el SSE contenía 70 nuevas instrucciones, con cuatro
instrucciones simultáneas que se podían realizar simultáneamente.

Este Pentium III original funcionó con un núcleo P6 ligeramente mejorado, por lo
que el chip se adaptó bien a las aplicaciones multimedia. Sin embargo, el chip fue
objeto de controversia cuando Intel decidió incluir en Katmai el “número de serie
del procesador” (PSN) integrado
El PSN fue diseñado para poder ser leído a través de una red, incluso en internet.
La idea, como Intel lo veía, era aumentar el nivel de seguridad en las
transacciones en línea. Los usuarios finales lo vieron de forma diferente. Lo vieron
como una invasión de la privacidad. Después de recibir un golpe en el ojo desde
la perspectiva de las relaciones públicas y obtener algo de presión de sus clientes,
Intel finalmente permitió que la etiqueta se desactivara en la BIOS.
En abril de 2000, Intel lanzó su Pentium III Coppermine. Mientras que Katmai
tenía 512 KB de caché L2, Coppermine tenía la mitad de eso a solo 256 KB. Pero
la caché se ubicó directamente en el núcleo de la CPU en lugar de en la tarjeta
capturada, como se ha tipificado en los procesadores anteriores del slot 1. Esto
hizo que la caché más pequeña se convirtiera en un verdadero problema, ya que
el rendimiento se beneficiaba.
Celeron II (2000)
Así como el Pentium III era un Pentium II con ESS y algunas características
añadidas, el Celeron II es simplemente un Celeron con una ESS, SSE2, y algunas
características añadidas.

El chip estuvo disponible de 533 MHz a 1,1 GHz. Este chip fue básicamente una
mejora del Celeron original, y se lanzó en respuesta a la competencia de AMD en
el mercado de bajo coste con el Duron.
Debido a algunas ineficiencias en la caché L2 y todavía usando el bus de 66 MHz,
este chip no resistiría demasiado bien contra el Duron a pesar de estar basado en
el núcleo de Coppermine.
Pentium IV (2000)

Intel realmente venció a AMD lanzando el Pentium IV Willamette en noviembre


de 2000. Pentium IV era exactamente lo que Intel necesitaba para volver a tomar
la primera posición frente a AMD.
Pentium IV fue una arquitectura de CPU verdaderamente nueva y sirvió como el
comienzo de las nuevas tecnologías que veremos en los próximos años.

La nueva arquitectura NetBurst estaba diseñada pensando en el futuro


aumento de la velocidad, lo que significaba que el P4 no se desvanecería
rápidamente como el Pentium III cerca de la marca de 1 GHz.
Según Intel, NetBurst se componía de cuatro nuevas tecnologías: Hyper Pipelined
Technology, Rapid Execution Engine, Execution Trace Cache y un bus de sistema
de 400 MHz.

Los primeros Pentium 4 utilizaron la interfaz socket 423. Una de las razones de


la nueva interfaz es la adición de mecanismos de retención del disipador térmico
a cada lado de la toma.
Esto es un movimiento para ayudar a los propietarios a evitar el temido error de
aplastar el núcleo de la CPU apretando el disipador de calor demasiado fuerte.

El socket 423 tuvo una vida corta, y Pentium IV rápidamente se movió al socket
478 con el lanzamiento de 1,9 GHz. Además, P4 se asoció en el momento de su
lanzamiento exclusivamente con Rambus RDRAM.
A principios de 2002, Intel anunció una nueva edición del Pentium IV basado en
el núcleo Northwood. La gran novedad con esto es que Intel dejaba el núcleo
de Willamette 0.18 más grande a favor de este nuevo Northwood de 0.13
micrones.
Esto redujo el núcleo y por lo tanto permitió a Intel no solo abaratar Pentium IV,
sino también hacer más de estos procesadores.

Northwood se lanzó por primera vez en las versiones de 2 GHz y 2,2 GHz, pero el
nuevo diseño da a P4 espacio para moverse hasta 3 GHz con bastante facilidad.

Pentium M (2003)

The Pentium M was created for mobile applications, mainly laptops (or
notebooks), hence the "M" in the name of the processor. It used socket 479, with
the most common applications of that socket being used in Pentium M and
Celeron M mobile processors.

Interestingly, the Pentium M was not designed as a lower-powered version of the


Pentium IV. Instead, it is a heavily modified Pentium III, which itself was based
on the Pentium II.
The Pentium M focused on energy efficiency to significantly improve the battery
life of a notebook. With this in mind, the Pentium M operates with a much lower
average electrical power consumption, as well as a much lower heat output.

Pentium 4 Prescott, Celeron D and Pentium D (2005)

El Pentium 4 Prescott se introdujo en 2004 con sentimientos encontrados. Este


fue el primer núcleo en utilizar el proceso de fabricación de semiconductores de
90 nm. Muchos no estaban satisfechos con ello porque el Prescott era
esencialmente una reestructuración de la microarquitectura del Pentium 4.
Aunque eso sería algo bueno, no había demasiados positivos.

Algunos programas fueron realzados por la caché duplicada así como por el
conjunto de instrucciones SSE3. Desafortunadamente, hubo otros programas
que sufrieron debido a la mayor duración de la instrucción.
También vale la pena notar que el Pentium 4 Prescott fue capaz de alcanzar
algunas velocidades de reloj bastante altas, pero no tan altas como Intel
esperaba. Una versión del Prescott fue capaz de obtener velocidades de 3.8 GHz.
Eventualmente, Intel lanzó una versión de Prescott compatible con la arquitectura
de 64 bits de Intel, Intel 64. Para empezar, estos productos solo se vendían como
la serie F a los fabricantes de equipos originales, pero Intel lo renombró
finalmente a la serie 5×1, que se vendió a los consumidores.
Intel introdujo otra versión del Prentium 4 Prescott, que era el Celeron D. Una
gran diferencia con ellos es que mostraban el doble de la caché L1 y L2 que el
anterior escritorio de Willamette y Northwood.
El Celeron D, en general, fue una mejora importante en el rendimiento
comparado con muchos de los anteriores Celerons basados en NetBurst. Si bien
hubo mejoras importantes en el rendimiento en general, tuvo un gran problema:
el calor excesivo.
Otro de los procesadores fabricados por Intel fue el Pentium D. Se puede ver
este procesador como la variante de doble núcleo del Pentium 4 Prescott.
Obviamente, se obtenían todos los beneficios que aportaba un núcleo extra, pero
la otra notable mejora con el Pentium D fue que podía ejecutar aplicaciones
multithreaded. La serie D de Pentium fue retirada en 2008, ya que tenía muchos
escollos, incluyendo un alto consumo de energía.
Intel Core 2 (2006)

Intel Core 2 era una marca que aloja una variedad de diferentes CPU X86-64 de
64 bits. Esto incluía un procesador de un solo núcleo, doble núcleo y cuádruple
núcleo basado en la microarquitectura Core de Intel.
La marca Core 2 abarcaba un montón de CPUs diferentes, pero para darte una
idea, aquí se incluye Solo (una CPU de un solo núcleo), Duo (una CPU de dos
núcleos), Quad (una CPU de cuatro núcleos) y, más tarde, Extreme (un
procesador de dos o cuatro núcleos dirigido a los entusiastas del hardware).
La línea Intel Core 2 fue realmente el primer procesador multi-core. Esta era una
ruta necesaria para Intel, ya que los verdaderos procesadores multinúcleo son
esencialmente un solo componente, pero con dos o más unidades de
procesamiento independientes.

Con múltiples núcleos como este, Intel fue capaz de aumentar la velocidad
general de los programas y, por lo tanto, abrir el camino a los programas más
exigentes como se puede ver hoy en día.
Intel Core i3, Core i5, Core i7 e Intel Core i9 (2008 – presente)

A decir verdad, no hay nada más confuso que la convención de nombres de Intel
aquí: Core i3, Core i5 , Core i7 y los recientes Intel Core i9 de 10 núcleos.

The Core i5 is a bit more confusing. In mobile applications, the Core i5 has four
cores but no hyperthreading. With this processor you get improved integrated
graphics and Turbo Boost, a way to temporarily boost processor performance
when a little more heavy lifting is needed.
All Core i7 processors incorporate hyperthreading technology that is missing from
the Core i5. But a Core i7 can have from four cores to 8 cores in an enthusiast
platform PC.
Plus, since the Core i7 is Intel's highest-tier processor in this series, you can
count on better integrated graphics, faster and more efficient Turbo Boost, and a
larger cache. That said, the Core i7 is the most expensive processor variant.

What characteristics make a different between Windows and Linux?

GNU / Linux and Windows are an operating system, that is, a program that allows
the user to interact with the computer and its components (monitor, hard disk,
printer, etc.) and that facilitates the performance of basic tasks such as copying
or moving files from one site to another, edit text files, establish an internet
connection or make backup copies.
The operating system is the first program that runs when you turn on your
computer.
The main difference is that Linux is free and, in most cases, free while Windows is
proprietary software and costs money. Similarly, most applications for Linux are
free and free while applications for Windows are not, although sometimes it is
easy to find evaluation programs (shareware) for Windows that allow you to test
a certain program for a certain period of time free.

Practice 2: Programming languages, compilers and interpreters and


development environments.
Practice objectives

 Recognize the history of the most important programming languages.


 Understand the concepts of source code, machine code, compiler and
interpreter.
 Become familiar with an integrated development environment.
 Recognize the structure of a language program.
 Identify the difference between the input and output functions of the
language.
 Become familiar with data types in languages and understand errors due to
the precision range of numeric types.

What is the most notable difference between a compiler and an


interpreter?

A compiler generates a "stand-alone" program, that is, it makes sense and can
be executed by itself, while an interpreted program always needs its
corresponding interpreter to be able to execute. Therefore, it is easier to
distribute a compiled program.

Name three compiled programming languages and the three most widely
interpreted.

Compiler and interpreter: differences, in brief

Both compilers and interpreters serve the function of converting written software
code into an executable, machine-readable format. Without this translation,
computer processors would not be able to run the software in languages such as
C, C ++, PHP, Python or Ruby, which makes these programs essential
components for using computers, laptops or smartphones. In the previous
sections, we have seen that compilers and interpreters present some basic
differences, something that must be taken into account especially when choosing
a suitable programming language to develop new software. The following table
summarizes the key aspects that characterize interpreters and compilers:

  Intérprete Compilador

Momento en que se Durante el tiempo de Antes de ejecutar el


traduce el código fuente ejecución del software software

Procedimiento de Línea por línea Siempre todo el código


  Intérprete Compilador

traducción

Presentación de errores de Después de cada línea En conjunto, después de


código toda la compilación

Velocidad de traducción Alta Baja

Eficiencia de traducción Baja Alta

Coste de desarrollo Bajo Alto

Lenguajes típicos PHP, Perl, Python, Ruby, C, C++, Pascal


BASIC

If we look at the differences between compiler and interpreter, we clearly see the
strengths and weaknesses of each solution for translating the source code: with
the interpreter, programs can be run immediately and therefore start much
faster. Also, development is much easier than with a compiler, because
debugging (that is, bug fixing) is carried out just like translation, line by line. For
the compiler, all code must be translated first before you can resolve errors or
start the application. However, once the program is run, the compiler services are
no longer required, while the interpreter continues to use computing resources.

  Ventaja Inconveniente

Intérprete Proceso de desarrollo Proceso de traducción poco eficiente y


sencillo (sobre todo en velocidad de ejecución lenta
términos de depuración)

Compilador Proporciona al procesador Cualquier modificación del código


el código máquina (resolución de errores, desarrollo del
completo y listo para software, etc.) requiere volverlo a
ejecutar traducir

What are the characteristics of an algorithm?

The fundamental characteristics that every algorithm must fulfill are:


 An algorithm must be precise: it must indicate the order of
performance of each step.
 An algorithm must be defined: If an algorithm is followed twice, the
same result must be obtained each time.
 An algorithm must be finite: the algorithm must be terminated at
some point; that is, it must have a finite number of steps.
 An algorithm must be legible: The text that describes it must be clear,
such that it can be easily understood and read.
 An algorithm must define three parts: Input, Process and Output.

Define what is encoding?

Coding is the process of putting together the segments of your data that
appear to illustrate an idea or concept (represented in your project as nodes).
In this way, coding is a way of abstracting from existing data in your resources
to build a greater understanding of the forces involved..

What are the techniques for formulating algorithms?

Flowcharts and pseudocode

One of the two most common tools in algorithm design is the flow chart.
Flowchart
A flow chart is the graphical representation of an algorithm. It can also be said
that it is the detailed representation in graphic form of how the steps must be
performed on the computer to produce results.
This graphic representation occurs when various symbols (which indicate different
processes in the computer) are related to each other by means of lines that
indicate the order in which the processes should be executed. The symbols used
have been standardized by the American Standards Institute (ANSI):

Símbolo Descripción
Indicates the start and end of our flow chart.

Indicates the input and output data.


Process symbol and indicates the assignment of a value
in memory and / or the execution of an arithmetic
operation.
Indicates the information output by printer.

In-page connector. Represents the continuity of the


diagram within the same page.
Connector off page. Represent the continuity of the
diagram on another page.
Indicates the information output on the screen or
monitor.

Decision symbol. Indicates the performance of a


comparison of values.

Multiple Selection Symbol. Given an expression, it


allows choosing one of many options.

While symbol. Given an expression at the beginning of


the iteration it is evaluated; if the condition is true it
will carry out the cycle, if it is false the repetition will
stop.
Para symbol. This repeating control structure is
generally used when the number of iterations is known
in advance.

Repeat until symbol. works the same as the While


structure, with the difference that at least once the
group of instructions will do and then evaluate a
condition. If the evaluated condition is false, it
continues within the cycle and if it is true, the iteration
ends.

Lines of flow or direction. They indicate the sequence


in which operations are performed.

Recommendations for the design of Flow Charts

• Only horizontal and / or vertical flow lines should be used.


• Crossing lines should be avoided using connectors.
• Connectors should be used only when necessary.
• There should be no flow lines unconnected.
• Symbols should be drawn so that they can be read from top to bottom and left
to right.
• All text written within a symbol must be written clearly, avoiding the use of
many words.

What are flowcharts and pseudocodes?

A flowchart is a type of diagram that represents a workflow or process.


A flowchart can also be defined as a diagrammatic representation of an
algorithm, a step-by-step approach to solving a task. The flowchart shows the
steps as boxes of various kinds, and their order by connecting the boxes with
arrows.

Pseudocode is a way of expressing the different steps that a program is going to


carry out, in the most similar way to a programming language. Its main function is
to represent the solution to a problem or algorithm in steps, in the most detailed
way possible, using a language close to that of programming. The pseudocode
cannot be executed on a computer since then it would cease to be pseudocode, as
its name indicates, it is a false code (pseudo = false), it is a code written so that the
human being and not the machine understand it. To understand what pseudocode
is, we can use a simile: the plans of a house would be the pseudocode and the
house itself the program.

Estructura de un algoritmo en pseudocódigo

Every algorithm in pseudocode has the following general structure:

Proceso SinTitulo
acción 1;
acción 2;
...
acción n;

FinProceso
 Comienza con la palabra clave Proceso (o alternativamente Algoritmo, son
sinónimos) seguida del nombre del programa.
 Le sigue una secuencia (Estructura de control secuencial) de instrucciones.
Una secuencia de instrucciones es una lista de una o más instrucciones y/o
estructuras de control.
 Finaliza con la palabra FinProceso (o FinAlgoritmo).
 La identación no es significativo, pero se recomienda para que el código sea
más legible.
 No se diferencia entre mayúsculas y minúsculas. Preferible las minúsculas,
aunque a veces se añaden automáticamente los nombres con la primera
letra en mayúsculas.

Name the rules for making a flow chart.

It is already indicated in a previous numeral.

Define the following terms:


Variable:

In the field of programming (computer science), variables are data structures


that can change their content throughout the execution of a program. These
structures correspond to a reserved area in the main memory of the computer. In
the variables we save the user inputs and calculations, values that we will later
use in other parts of the algorithm.
.
Constant:

In programming, a type of data that cannot change its value.

Counter:

It is a variable that is destined to contain different values, which increases or


decreases each time the computer carries out the instruction that contains it.

Syntax: variable = variable ± constant”. When we use a variable in order to


increase it by one unit, each time a process is fulfilled, we are in the presence of
a counter.

Accumulator:

In programming, an accumulator is called a variable whose value is increased or


decreased by a value that does not have to be fixed (in each iteration of a loop).
An accumulator is often used to accumulate results produced in the iterations of a
loop.
Identify:
An identifier is a set of alphanumeric characters of any length that is used to
identify the entities of the program (classes, functions, variables, compound
types). Identifiers can be combinations of letters and numbers.

What is a problem?

It is the first step in studying a problem and can also be the most important. after
all, people need to recognize that there is a need or problem before they can
create a solution. therefore, it is required to understand as much detail as
possible what the current situation is regarding the scope and objectives of the
problem to be solved.

What are the steps to follow to solve a problem?

1. Previous analysis of the problem. ...


2. Algorithm Design. ...
3. Coding and development environment setup. ...
4. Compilation and testing. ...
5. Documentation and maintenance.

How can a computer help solve a problem?

Being part of the entire solution process (phases) of the problems raised.
Document, develop, schedule, run applications.

What is a programming language?

It is a formal language that, through a series of instructions, allows a


programmer to write a set of orders, consecutive actions, data and algorithms to,
in this way, create programs that control the physical and logical behavior of a
machine.

Why is programming important in your profession?

Scheduling is a fundamental tool in the world we live in, becoming an important


job opportunity. In addition, their learning is an opportunity to improve formal
logical reasoning.
Programming is about using our creativity and ingenuity to solve problems and
automate tasks with the help of a computer. In other words, programming tries
to understand, build and modify software, which today is present in thousands of
devices.

What tasks could be simplified and improved using simple programs of


your own construction?

In multiple areas, from academic, commercial, scientific, cultural, etc.

Is it useful to program the tasks of daily life? Justify your answer.

It is important in terms of efficiency and effectiveness, which also translates into


economics.

Check which are the generations of computers

You might also like