Zeichenbrett ist schon etwas länger out. Du hast ein paar Ebenen. Reden wir mal über "digital" (MOS und nicht über "bipolar"), vereinfachte Darstellung:
Auf der untersten "Technologie-Ebene" hast Du Leiterbahnen, Isolation und Transistoren, die haben eine Geometrie. Daraus werden später Masken generiert, die mit einem "Stepper" ausbelichtet wurden (aktuell bin ich unsicher, ob noch dingliche Masken verwendet werden oder nur noch direkt belichtet wird und die "Masken" nur virtuell vorliegen) und die dann Schicht für Schicht fotolithografisch auf das Substrat aufgebracht wurden und dann wird bedampft (Aluminiumleiterbahnen), oxidiert (Siliziumoxid als Isolator) oder P- oder N-dotiert.
So richtig früher hat man die Masken mit Folien gemacht und die dann fotografisch verkleinert. Mitunter wurde dann "ein roter Streifen drübergeklebt", das hat sich dann auch im CAD Prozeß (früher an der "Graphik-Workstation", schon in Jeans und Pullover bedienbar, ohne Kittel) als Begriff gehalten. Im Kampf um immer kleinere Strukturen dann immer kürzere Wellenlängen für die Fotolithografie (es geht schon etwas länger nicht mehr mit sichtbarem Licht).
Aus den Transistoren baut man erstmal NAND und NOR Gatter und aus denen kann man "alles" an Logik zusammenbauen (evtl. kann man auch mal "kürzen"). Klar, für RAMs und AD- und DA-Wandler kommen Schmakatien zum tragen und ROM also der "Inhalt" des ROMs ist rein "Aluminium" (das drumherum und die Adressansteuerung natürlich Gatter).
Aus den Standardgattern /-Bausteinen baut man je nachdem was man gerade braucht: Speicher, eine ALU oder sonstwas. Natürlich braucht man auch immer mal Spezialitäten, aber man baut sich eben auch "Bibliotheken" mit Standards, die man wie Legosteine immer wieder verwendet ("Copy&Paste") und nicht jedesmal neu erfindet. Evtl. baut man auch das gleich Gatter in unterschiedlichen Topographien, um später Platz zu sparen.
Wenn man loslegt, entwirft man eine elektrische Schaltung, die kann man auch im Computer simulieren, und den Entwurf setzt man dann aus seinen Legosteinen äh "Modulen" zusammen und verbindet sie. Dann läßt man eine Software aus der Geometrie wieder die Schaltung extrahieren um zu sehen, ob man auch das gemacht hat, was man geplant hat.
Und dann geht es eben arbeitsteilig. Man hat eine "Idee" oder Vorgabe, was man überhaupt bauen soll, eine CPU, einen Mikrocontroller, einen Signalprozessor, eine Gleitkommaarithmetik, ... und dann wird überlegt, wie man das schlauerweise anstellt und in ein möglichst schon vorhandenes Gehäuse mit bereits bekanntem Pinning unterbringt. Klar, der erste 64-Bit-Prozessor kriegt ein neues Gehäuse. Die Nächste Generation Speicher mit größerem Adressraum auch (neues Gehäuse = neue Schmerzen). Man überlegt sich, wie man die Vorgabe realisiert, also welche Komponenten man benötigt und wie man die zweckmäßigerweise anordnet. Klassischerweise gibt es dann Spezialisten fürs Design und dann ein paar mehr Leute um das in den Rechner zu bringen.
Sicher wird da immer mehr von Software gemacht (wie auch beim Platinenlayout), aber man weiß ja auch, was bei Software-Generatoren rauskommt, das ist oft etwas "weitschweifig" und man kann es manchmal noch optimieren.
Um dann etwas "zu erfinden", also statt "lauter Kram fest verdrahtet" eine Mikroprogrammierung zu machen, oder statt "klassischem Mikroprogramm" dann einen RISC Rechner zu bauen (und den Rest der Welt von der Genialität der Idee zu überreden oder gar zu überzeugen) braucht man bislang wohl noch "Keativität" und Menschen.



Zitieren